Modelos Discretos y Continuos-Teoria - Unlocked

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 42

Modelos de probabilidad

Teoría y ejemplos
c 2000 CRESLINE
°

Distribuciones de Probabilidad de tipo Discreto


En este capítulo estudiaremos las distribuciones de probabilidad de tipo discreto

om
más usuales, obteniendo una serie de características y propiedades de cada una
de ellas.

.c
Distribución uniforme discreta
Definición
es
Diremos que una variable aleatoria discreta X se distribuye uniformemente sobre
n puntos x1 , . . . , xn si su función de probabilidad es
d

½ 1
en

n para i = 1, 2, . . . , n
f (xi ) = P (X = xi ) =
0 en otro caso
pr

Obsérvese que la variable aleatoria toma diferentes valores pero siempre con la
misma probabilidad.
.a

Propiedades
1. Función de distribución:
w

X
F (x) = P (X ≤ x) = P (X = xi )
w

xi ≤x
w

2. Esperanza:
n
1X
E(X) = xi
n i=1

Demostración:
n
X n
X n
1 1X
E(X) = xi · P (X = xi ) = xi · = xi .
i=1 i=1
n n i=1

3. Varianza: Ã !2
n n
1X 2 1X
V ar(X) = x − xi
n i=1 i n i=1

1
Demostración:
n n
!2 Ã
X 1X
2 2
V ar(X) = E(X ) − (E(X)) = x2i
· P (X = xi ) − xi =
i=1
n i=1
n
à n !2 n
à n !2
X 1X 1X 2 1X
2 1
= xi · − xi = x − xi .
i=1
n n i=1 n i=1 i n i=1

4. Función característica:
n
1 X itxi
ϕ(t) = e
n i=1

om
Demostración:
n
X n
X n
1 1 X itxi
ϕ(t) = E(eitX ) = eitxi · P (X = xi ) = eitxi · = e .
i=1 i=1
n n i=1

.c
es
5. Función generatriz de momentos:
n
1 X txi
d
g(t) = e
n i=1
en

Demostración:
pr

n
X n
X n
1 1 X txi
g(t) = E(etX ) = etxi · P (X = xi ) = etxi · = e .
i=1 i=1
n n i=1
.a
w

Distribución de Bernouilli
w

Definición
w

A un experimento aleatorio que da lugar únicamente a dos posibles sucesos que


son mutuamente excluyentes y exhaustivos se le llama experimento o prueba de
Bernouilli. A los dos posibles sucesos del experimento se les llama suceso éxito,
A, y suceso fracaso, A. Sea A un suceso de probabilidad p, P (A) = p. Se dice
que una variable aleatoria X es de Bernouilli si
½
0 ω∈A
X(ω) =
1 ω∈A

La función de probabilidad en este caso es: f (0) = q y f (1) = p, siendo q = 1−p.


Decimos que una variable aleatoria X sigue una distribución de Bernouilli
de parámetro p si su función de probabilidad es

f (x) = P (X = x) = px (1 − p)1−x , x = 0, 1.

Decimos en tal caso que X es de tipo B(p).

2
Propiedades
1. Función de distribución:

 0 si x < 0
F (x) = P (X ≤ x) = 1 − p si 0 ≤ x < 1

1 si x ≥ 1

2. Esperanza:
E(X) = p

Demostración:
E(X) = 1 · p + 0 · (1 − p) = p.

om
3. Varianza:
V ar(X) = p · q

Demostración:

.c
V ar(X) = E[(X − E(X))2 ] = (0 − p)2 q + (1 − p)2 p =
es
= p2 q + q 2 p = pq(p + q) = pq.
d
en

4. Función característica:
ϕ(t) = q + peit
pr

Demostración:

ϕ(t) = E(eitX ) = eit0 · q + eit·1 p = q + peit .


.a
w

5. Función generatriz de momentos:


w

g(t) = q + pet
w

Demostración:

g(t) = E(etX ) = et0 · q + et·1 p = q + pet .

Ejemplo
Ejemplo 1 Un agente de seguros dedicado a la venta de seguros de vida realiza
visitas a posibles clientes con el fin de contratar un seguro de vida. Se sabe de
su trayectoria como agente que en el 60% de las visitas tiene éxito y contrata
un seguro. Definir la variable aleatoria asociada a este experimento aleatorio y
obtener la media y varianza.
Solución: El experimento aleatorio es realizar la visita a una posible cliente,
y hay dos resultados posibles: conseguir que el cliente contrate el seguro (suceso

3
éxito) o no conseguirlo (suceso fracaso). La variable aleatoria X asociada al
experimento toma los valores
X = 1 si el cliente contrata el seguro
X = 0 si el cliente no contrata el seguro.
Es, por tanto, una variable de tipo Bernouilli, y su función de probabilidad será
P (X = 1) = 0.6 = p
P (X = 0) = 1 − 0.6 = 0.4 = q
Por consiguiente, la media y la varianza valen
E(X) = p = 0.6
V ar(X) = pq = 0.6 · 0.4 = 0.24.

om
Distribución Binomial

.c
Definición es
Una generalización importante de la distribución de Bernouilli se obtiene cuando
el experimento se repite varias veces. Así pues consideremos n repeticiones
independientes de un experimento, siendo la probabilidad de éxito, P (A) = p,
d
constante en todas las repeticiones. Asociada a cada una de las n repeticiones
del experimento tenemos una variable aleatoria Xi tal que
en

½
1 ω∈A
Xi (ω) = ,
0 ω∈A
pr

es decir, una variable de Bernouilli. Si definimos la variable aleatoria


n
X
.a

X= Xi ,
i=1
w

entonces como cada Xi puede tomar el valor 1 o 0, dependiendo de si ocurre


el suceso A (éxito) o no ocurre el suceso A (fracaso) en la repetición i-ésima,
w

la variable aleatoria X toma valores enteros comprendidos entre 0 y n, y nos


da el número de éxitos en las n repeticiones independientes del experimento.
w

Decimos entonces que X es una variable aleatoria binomial de parámetros n


y p. Decimos también que una variable aleatoria X sigue una distribución
binomial de parámetros n y p si su función de probabilidad es
µ ¶
n
f (x) = P (X = x) = px (1 − p)n−x , x = 0, 1, . . . , n
x
En tal caso, decimos que X es del tipo B(n, p). Obsérvese que una variable X del
tipo B(p) puede considerarse como una variable del tipo B(1, p), con lo que un
variable de tipo Bernouilli puede considerarse un caso paricular de la binomial.
Se observa también fácilmente que una variable binomial de parámetros n y p
se puede obtener como una suma de n variables de Bernouilli independientes,
es decir,
X = X1 + X2 + · · · + Xn ,
donde X es de tipo B(n, p) y Xi es de tipo B(p).

4
Propiedades
1. Función de distribución:



 Px
µ ¶0 si x < 0
n
F (x) = P (X ≤ x) = pi (1 − p)n−i si 0 ≤ x < n

 i=0 i

1 si x ≥ n

2. Esperanza:
E(X) = np

Demostración: Sabemos que una variable de tipo binomial B(n, p) puede


expresarse como suma de n variables de tipo Bernouilli B(p). Por tanto,

om
E(X) = E(X1 + X2 + · · · + Xn ) = E(X1 ) + E(X2 ) + · · · + E(Xn ) =
= p + p + · · · + p = np.

.c
3. Varianza:
es
V ar(X) = npq,
donde q = 1 − p
d
Demostración: Como una variable de tipo binomial B(n, p) puede ex-
presarse como suma de n variables independientes de tipo Bernouilli B(p),
en

tenemos:

V ar(X) = V ar(X1 + X2 + · · · + Xn ) = V ar(X1 ) + V ar(X2 ) + · · · + V ar(Xn ) =


pr

= pq + pq + · · · + pq = npq.
.a

4. Función característica:
w

ϕ(t) = (q + p · eit )n
w

Demostración: Como una variable de tipo binomial B(n, p) puede ex-


w

presarse como suma de n variables independientes de tipo Bernouilli B(p),


y la función característica de una suma de variables aleatorias independi-
entes es el producto de las funciones características, tenemos:

ϕX (t) = ϕ(X1 +X2 +···+Xn ) (t) = ϕX1 (t) · ϕX2 (t) · · · · · ϕXn (t) =
= (q + p · eit ) · (q + p · eit ) · · · · · (q + p · eit ) = (q + p · eit )n .

5. Función generatriz de momentos:

g(t) = (q + p · et )n

Demostración: Como una variable de tipo binomial B(n, p) puede ex-


presarse como suma de n variables independientes de tipo Bernouilli B(p),

5
y la función generatriz de momentos de una suma de variables aleatorias
independientes es el producto de las funciones generatrizs, tenemos:

gX (t) = g(X1 +X2 +···+Xn ) (t) = gX1 (t) · gX2 (t) · · · · · gXn (t) =
= (q + p · et ) · (q + p · et ) · · · · · (q + p · et ) = (q + p · et )n .

6. Si designamos por X e Y las variables aleatorias binomiales que repre-


sentan el número de éxitos y de fracasos, respectivamente, que se tienen
cuando realizamos n repeticiones independientes de una prueba de Bernouilli
con probabilidad de éxito p, entonces tenemos

P (X = x) = P (Y = n − x),

om
ya que la probabilidad de obtener x éxitos lógicamente coincide con la
probabilidad de obtener n − x fracasos.

Teorema 1 Si X1 , X2 , . . . , Xh son h variables independientes de tipo B(n1 , p), B(n2 , p), . . . , B(nh , p)

.c
respectivamente, entonces X = X1 + X2 + · · · + Xh es de tipo B(n1 + n2 + · · · +
nh , p).
es
Demostración: Como las variables son independientes, se cumple:

ϕx (t) = ϕx1 (t) · ϕx2 (t) · · · · · ϕxh (t) =


d
= (p · eit + q)n1 · (p · eit + q)n2 · · · · · (p · eit + q)nh =
en

= (p · eit + q)(n1 +n2 +···+nh ) ,

que es la función característica de una distribución binomial B(n1 + n2 + · · · +


pr

nh , p).
.a

Ejemplos
Ejemplo 2 En una cierta comarca, el 30% del ganado está afectado de una
w

enfermedad E. Si se considera un grupo de 20 reses, ¿cuál es la probabilidad de


que haya 5 enfermas? ¿Y de que haya 15 sanas?
w

Solución: Sea X el número de reses afectadas por E de entre 20. Entonces


˙ Por tanto,
X tiene una distribución B(20, 0.3).
w

µ ¶
20
P (X = 5) = (0.3)5 (0.7)15 = 0.1785.
5
La segunda pregunta es, de hecho, la misma que la primera, luego ya conocemos
el resultado.

Ejemplo 3 Se extraen cinco cartas de una baraja española con reemplaza-


miento. ¿Cuál es la probabilidad de que dos sean espadas?
Solución: Sea X el número de espadas entre 5 cartas. Entonces X tiene
una distribución B(5, 14 ). Por tanto,
µ ¶ µ ¶2 µ ¶3
5 1 3 270
P (X = 2) = = = 0.2636.
2 4 4 1024

6
Distribución Multinomial
Definición
La distribución multinomial es una generalización de la distribución binomial, y
se usa cuando el experimento aleatorio no sólo da lugar a dos posibles sucesos,
éxito A y fracaso A, como ocurría en la binomial, sino que da lugar a tres o más
posibles resultados.
Así pues, consideremos un experimento aleatorio en el que se pueden dar k
resultados posibles y mutuamente excluyentes A1 , . . . , Ak , k > 2, de tal manera
que forman una partición del espacio muestral. Si designamos por pi = P (Ai ),
P
k
i = 1, 2, . . . , k, se cumple pi = 1.
i=1
Supongamos que realizamos n repeticiones independientes del experimento
en las mismas condiciones y por tanto las probabilidades pi se mantienen con-

om
stantes. Consideremos k variables aleatorias X1 , . . . , Xk , donde la variable
aleatoria Xi indica el número de veces que se presenta el suceso Ai cuando
se realizan las n repeticiones independientes del experimento.

.c
Definimos la variable aleatoria multinomial (X1 , . . . , Xk ) como aquella que
representa el número de veces que se presentan cada uno de los sucesos A1 , . . . , Ak
cuando se realizan las n repeticiones independientes del experimento. Obsérvese
es
que una variable multinomial es un ejemplo de una variable aleatoria multidi-
mensional.
d
Decimos que una variable aleatoria k-dimensional (X1 , . . . , Xk ) sigue una
distribución multinomial de parámetros n, p1 , . . . , pk si su función de probabili-
en

dad es
n!
f (x1 , . . . , xk ) = P (X1 = x1 , . . . , Xk = xk ) = px1 · · · · · pxk k
pr

x1 ! · · · · · xk ! 1
P
k
.a

para xi = 0, 1, . . . , n, con xi = n. En tal caso, decimos que la variable


i=1
aleatoria k-dimensional (X1 , . . . , Xk ) es del tipo M (n, p1 , . . . , pk ).
w

Propiedades
w

1. Función generatriz de momentos:


w

à k !n
X
g(t1 , . . . , tk ) = pi eti
i=1

Demostración:

g(t1 , . . . , tk ) = E(et1 X1 +···+tk Xk ) =


X X n!
= ··· px1 1 · · · · · pxkk · et1 x1 · · · · · etk xk =
x1 xk
x1 ! · · · · · xk !
X X n!
= ··· (p1 et1 )x1 · · · · · (pk etk )xk =
x1 xk
x1 ! · · · · · xk !
à k !n
X
t1 tk n ti
= (p1 e + · · · + pk e ) = pi e .
i=1

7
2. Esperanza:
E(Xi ) = npi

Demostración:
 n ¯
¯ k ¯
∂g(t1 , . . . , tk ) ¯¯ ∂ X tj  ¯
¯
E(Xi ) = ¯ = pj e ¯ (=1)
∂ti t1 =···=tk =0 ∂ti j=1 ¯
t1 =···=tk =0
¯
= npi eti (p1 eti + · · · + pi eti + · · · + pk eti )n−1 ¯t1 =···=t =0 = (2)
k

= npi (p1 + · · · + pk )n−1 = npi . (3)

om
3. Varianza:
V ar(Xi ) = npi (1 − pi )

.c
Demostración: Empezamos calculando
¯
∂ 2 g(t1 , . . . , tk ) ¯¯
es
2
E(Xi ) = ¯ = n2 p2i − np2i + npi .
∂t2i t1 =···=tk =0
d
Entonces tenemos:
en

V ar(X) = E(Xi2 ) − (E(Xi ))2 = n2 p2i − np2i + npi − n2 p2i =


= npi (1 − pi ).
pr
.a

4. Covarianza:
Cov(Xi , Xj ) = −npi pj
w

Demostración: Empezamos calculando


¯
w

∂ 2 g(t1 , . . . , tk ) ¯¯
E(Xi Xj ) = ¯ = n2 pi pj − npi pj
∂ti ∂tj
w

t1 =···=tk =0

Entonces,

Cov(Xi , Xj ) = E[(Xi − npi )(Xj − npj )] = E(Xi Xj ) − n2 pi pj =


= n2 pi pj − npi pj − n2 pi pj = −npi pj .

Teorema 2 Si X e Y son dos variables aleatorias k-dimensionales de tipo


M (n, p1 , . . . , pk ) y M (m, p1 , . . . , pk ) respectivamente, entonces la variable aleato-
ria Z = X + Y es del tipo M (n + m, p1 , . . . , pk ).

8
Demostración: Considerando la función generatriz de momentos de la vari-
able aleatoria Z = X + Y, tenemos:

gX+Y (t1 , . . . , tk ) = E(et1 (X1 +Y1 )+···+tk (Xk +Yk ) ) =


à k !n à k !m
X X
t1 X1 +···+tk Xk t1 Y1 +···+tk Yk ti ti
= E(e ) · E(e )= pi e · pi e =
i=1 i=1
à k !n+m
X
= pi eti ,
i=1

que es la función generatriz de momentos de una distribución multinomial M (n+


m, p1 , . . . , pk ).

om
Ejemplo
Ejemplo 4 En un cierto cruce de ratones, el resultado de negros, grises y blan-
cos está en la relación 8:4:4. Calcular la probabilidad de que de 10 ratones, 6

.c
sean blancos, 3 grises y 1 blanco.
Solución: Sean X1 el número de ratones negros de entre 10, X2 el número
es
de ratones grises de entre 10 y X3 el número de ratones blancos de entre 10.
Podemos ajustar una distribución multinomial de parámetros
d
1 1 1
n = 10 p1 = p2 = p3 = .
2 4 4
en

Por tanto,
µ ¶6 µ ¶3 µ ¶1
pr

10! 1 1 1
P (X1 = 6, X2 = 3, X3 = 1) = = 0.0512.
6!3!1! 2 4 4
.a

Ejemplo 5 Un grupo de 12 personas deciden reunirse en una cierta ciudad.


w

La probabilidad de que una persona llegue a la ciudad en avión, coche, tren o


w

autobús es, respectivamente, de 0.3, 0.4, 0.1 y 0.2. ¿ Cuál es la probabilidad de


que de las 12 personas, 3 lleguen en avión, 5 en coche, 2 en tren y 2 en autobús?
w

Solución: Sean

X1 = número de personas que llegan en avión


X2 = número de personas que llegan en coche
X3 = número de personas que llegan en tren
X4 = número de personas que llegan en autobús

La variable (X1 , X2 , X3 , X4 ) tiene distribución multinomial de parámetros n =


12, p1 = 0.3, p2 = 0.4, p3 = 0.1, y p4 = 0.2. Entonces

P (X1 = 3, X2 = 5, X3 = 2, X4 = 2) =
12!
= (0.3)3 (0.4)5 (0.1)2 (0.2)2 = 0.4728.
3!5!2!2!

9
Distribución geométrica o de Pascal
Definición
Sea A un suceso de probabilidad P (A) = p, y sea X la variable aleatoria que
expresa el número de fracasos que tienen lugar en las repeticiones independientes
de pruebas de Bernouilli, hasta que ocurre A por primera vez. La variable X
toma los valores 0, 1, 2, . . . (número de fracasos). Decimos que una variable
aleatoria X sigue una distribución geométrica de parámetro p si su función de
probabilidad es
f (x) = (1 − p)x p, x = 0, 1, . . .
En tal caso decimos que X es del tipo G(p).

Propiedades

om
1. Función de distribución:

 0 si x < 0
F (x) = P (X ≤ x) = P
x
 (1 − p)i p si x ≥ 0

.c
i=0
es
2. Función generatriz de momentos:
p
g(t) = ,
d
1 − qet
en

donde q = 1 − p
Demostración:

X ∞
X
pr

g(t) = E(etX ) = etx (1 − p)i p = etx q i p =


i=0 i=0
p
.a

t 2 2t 3 3t
= p(1 + qe + q e + q e + · · · ) = .
1 − qet
w

3. Esperanza:
w

1−p
E(X) =
p
w

Demostración:
dg(t) pqet
= .
dt (1 − qet )2
¯
dg(t) ¯¯ pq pq q 1−p
E(X) = ¯ = 2
= 2 = = .
dt t=0 (1 − q) p p p

4. Varianza:
1−p
V ar(X) =
p2
Demostración:
d2 g(t) pqet (1 − qet )2 − pqet 2(1 − qet )(−qet ) pqet (1 − qet ) + 2pq 2 e2t
= = .
dt2 (1 − qet )4 (1 − qet )3

10
¯
d2 g(t) ¯¯ pq(1 − q) + 2pq 2 p2 q + 2pq 2 pq + 2q 2
α2 = = = =
dt2 ¯ t=0 (1 − q)3 p3 p2
Por tanto,
µ ¶2
pq + 2q 2 2 1−p pq + 2q 2 − q 2
V ar(X) = α2 − (E(X)) = − = =
p2 p p2
pq + q 2 (1 − q)q + q 2 q 1−p
= 2
= 2
= 2 = .
p p p p2

Teorema 3 Si X es una variable aleatoria de tipo G(p), entonces se verifica

P (X ≥ h + k/X ≥ h) = P (X ≥ k)

om
con h, k = 0, 1, 2, . . . .
Demostración: A partir de la función de distribución de la variable aleato-
ria geométrica de parámetro p, G(p), podemos escribir, para x ≥ 0, que

P (X
.c
≥ x) = 1 − P (X < x) = 1 − P (X ≤ x − 1) = 1 − F (x − 1) =
es
x−1
X x−1
X x−1
X
= 1− (1 − p)i p = 1 − qi p = 1 − p qi =
i=0 i=0 i=0
d
1 − q · q x−1 1 − qx
= 1−p =1−p = 1 − (1 − q x ) =
en

1−q p
= qx
pr

Por tanto,

P (X ≥ h + k, X ≥ h)
.a

P (X ≥ h + k/X ≥ h) = =
P (X ≥ h)
P (X ≥ h + k) q h+k
w

= = h = q k = P (X ≥ k).
P (X ≥ h) q
w
w

Esto quiere decir que, si hemos pasado la h-ésima repetición de la prueba


de Bernouilli y no se ha obtenido un éxito, entonces la probabilidad de que
se realicen por lo menos otras k repeticiones sin que se presente ningún éxito,
o sea que se realicen por lo menos h + k repeticiones, esa probabilidad es la
misma que si consideramos que la primera repetición es la h + 1-ésima, es decir,
esa probabilidad es la misma que la probabilidad de que realicemos al menos k
repeticiones sin obtener el primer éxito. Se dice que la distribución geométrica
no tiene memoria.

Ejemplo
Ejemplo 6 En una cierta cadena de producción, se sabe que en promedio uno
de cada 20 productos manufacturados es defectuoso. ¿Cuál es la probabilidad de
que al hacer un control, el cuarto producto manufacturado seleccionado sea el
primero defectuoso?

11
Solución: Sea D el suceso ”seleccionar un producto defectuoso”. Sabe-
1
mos que P (D) = 20 . El modelo es una distribución geométrica, con lo que la
probabilidad pedida es
µ ¶3
19 1
P = = 0.0428.
20 20

Distribución Binomial Negativa


Definición
Partimos de las mismas condiciones que en la distribución binomial y geométrica,
es decir, consideramos repeticiones independientes de pruebas de Bernouilli, con

om
probabilidad de éxito p constante para cada repetición.
Definimos la variable aleatoria binomial negativa X como el número de fra-
casos que tienen lugar antes de que aparezca el r-ésimo éxito. Diremos que una
variable aleatoria X sigue una distribución binomial negativa de parámetros r y

.c
p, si su función de probabilidad es
µ ¶
es
x+r−1
f (x) = P (X = x) = (1 − p)x pr , x = 0, 1, 2, . . . , r = 1, 2, . . .
x
d
En tal caso decimos que X es del tipo BN (r, p). Obsérvese que si tomamos
en

r = 1, entonces BN (1, p) = G(p).

Propiedades
pr

1. Función de distribución:

.a

 µ 0 ¶ si x < 0
F (x) = P (X ≤ x) = P
x i+r−1
 (1 − p)i pr si x ≥ 0
i
w

i=0
w

2. Función generatriz de momentos:


µ ¶r
p
w

g(t) = ,
1 − qet

donde q = 1 − p
Demostración:

X ∞
X ¶ µ
tX tx x+r−1 x r tx
g(t) = E(e ) = e P (X = x) = e · q p =
x=0 x=0
x
X∞ µ ¶ X∞ µ ¶
−r −r
= etx · (−q)x pr = pr (−qet )x · 1−r−x =
x=0
x x=0
x
µ ¶r
p
= pr (1 − qet )−r = .
1 − qet

12
Hemos usado que
µ ¶
x+r−1 (x + r − 1) · (x + r − 2) · · · · · (r + 2) · (r + 1) · r
= =
x x!
(−r) · (−r − 1) · (−r − 2) · · · · · (−r − x + 1)
= (−1)x =
µ ¶ x!
−r
= (−1)x .
x

3. Esperanza:
rq
E(X) =
p
Demostración: Utilizando la función generatriz, obtenemos:

om
¯ µ ¶r ¯
dg(t) ¯¯ d p ¯
¯
E(X) = ¯ = t ¯ =
dt t=0 dt 1 − qe t=0
µ ¶r−1 ¯
−p(−qet ) ¯¯

.c
p
= r· · ¯ =
1 − qet (1 − qet )2 ¯
t=0
es
¯
rpr qet ¯¯ rpr q
= = =
(1 − qet )r+1 ¯t=0 (1 − q)r+1
d
rpr q rq
= = .
en

pr+1 p
pr

4. Varianza:
rq
V ar(X) =
p2
.a

Demostración:
¯ µ ¶¯
d2 g(t) ¯¯ d rpr qet ¯
¯
w

2
E(X ) = = =
dt2 ¯ t=0 dt (1 − qet )r+1 ¯t=0
¯
rpr qet (1 − qet )r+1 − rpr qet (r + 1)(1 − qet )r (−qet ) ¯¯
w

= ¯ =
(1 − qet )2r+2 t=0
¯
w

rpr qet (1 − qet ) + r(r + 1)pr q 2 e2t ¯¯


= ¯ =
(1 − qet )r+2 t=0
rpr q(1 − q) + r(r + 1)pr q 2 rpr qp + rpr q 2 r2 pr q 2
= r+2
= + r+2 =
(1 − q) pr+2 p
r+1 r 2 2 2
rp q + rp q r q
= + 2 .
pr+2 p
La varianza viene dada por
rpr+1 q + rpr q 2 r2 q 2 r2 q 2
V ar(X) = E(X 2 ) − (E(X))2 = + − =
pr+2 p2 p2
rpr q(p + q) rpr q rq
= r+2
= r+2 = 2 .
p p p

13
Teorema 4 Si X1 y X2 son dos variables aleatorias independientes distribuidas
según BN (r1 , p) y BN (r2 , p) respectivamente, entonces la variable X = X1 +X2
se distribuye según BN (r1 + r2 , p).
Demostración: A partir de la función generatriz de momentos de la vari-
able aleatoria X = X1 + X2 tenemos:

gX (t) = gX1 +X2 (t) = gX1 (t) · gX2 (t) =


µ ¶r1 µ ¶r2
p p
= · =
1 − qet 1 − qet
µ ¶r1 +r2
p
= ,
1 − qet
que es la función generatriz de momentos de una distribución BN (r1 + r2 , p).

om
Ejemplo
Ejemplo 7 Se extraen una a una, al azar y con reemplazamiento, cartas de
una baraja española. ¿Cuál es la probabilidad de obtener 5 cartas que no sean

.c
oros antes de obtener el tercer oro?
Solución: Supongamos que el suceso éxito es sacar un oro, y el suceso
es
fracaso, sacar una carta que no sea oro. Entonces
1 3
d
p= q= .
4 4
en

Se trata de una binomial negativa con n = 3, x = 5 y p = 14 . Por tanto,


µ ¶ µ ¶3 µ ¶5 µ ¶ 5
3+5−1 1 3 7 3
pr

P (X = 5) = = = 0.0778.
5 4 4 5 48
.a

Distribución Hipergeométrica
w

Definición
w

Hasta ahora en las distribuciones estudiadas considerábamos que se realizaban


w

repeticiones independientes de experimentos o pruebas de Bernouilli, en donde


la probabilidad de éxito permanecía constante en cada repetición, es decir, las
repeticiones independientes en los experimentos eran equivalentes a la selección
de una muestra con reemplazamiento.
Ahora nos interesa estudiar el caso en el que el muestreo o selección de los
elementos de la muestra, equivalente a la repetición de las pruebas de Bernouilli
en la distribución binomial, se hace sin reemplazamiento. Veremos que la prob-
abilidad de éxito no permanece constante.
Consideremos una población de tamaño N , dividida según la característica
a estudiar, en dos subpoblaciones disjuntas de tamaños N1 y N2 . Por ejemplo,
una urna con N bolas de las cuales N1 son blancas y N2 son negras. Tomamos
una muestra aleatoria sin reemplazamiento de tamaño n, n ≤ N .
Definimos la variable aleatoria hipergeométrica X como el número de elemen-
tos que pertenecen a una de las subpoblaciones, cuando tomamos una muestra
aleatoria sin reemplazamiento de tamaño n de la población total.

14
La función de probabilidad de X (considerando la primera de la subpobla-
ciones) es: µ ¶µ ¶
N1 N2
k n−k
f (k) = P (X = k) = µ ¶ ,
N
n
donde k cumple max {0, n − N2 } ≤ k ≤ min {n, N1 }. Si designamos por p la
probabilidad de que un elemento pertenezca a la primera subpoblación y por
q = 1 − p, la probabilidad de que pertenezca a la segunda subpoblación, resulta:

N1 = N ·p
N2 = N · (1 − p) = N · q

om
Diremos que X sigue una distribución hipergeométrica de parámetros N, n, p, o,
abreviadamente, X es de tipo H(N, n, p), si su función de probabilidad es
µ ¶µ ¶
Np Nq

.c
x n−x
f (x) = P (X = x) = µ ¶ ,
N
es
n

siendo max {0, n − N q} ≤ x ≤ min {n, N p}.


d
en

Propiedades
1. Función de distribución:

pr

 0 si x < max {0, n − N q}



   

 N p Nq

 P   
.a

x i n−i
F (x) =   si max {0, n − N q} ≤ x ≤ min {n, N p}

 i=0 N 

 
 n
w



1 si x > min {n, N p}
w

2. Esperanza:
w

E(X) = n p

Demostración:
¡N·p¢¡ N ·q ¢
X X x
E(X) = x · P (X = x) = x· ¡N n−x
¢ =
x x n
¡ Nq ¢
1 X N p · (N p − 1) · · · · · (N p − x + 1) · n−x
= ¡N ¢ x· =
n x
x · (x − 1) · · · · · 1
µ ¶ µ ¶ µ ¶
Np X Np − 1 Nq Np N − 1
= ¡N ¢ · = ¡N ¢ =
n x
x−1 n−x n
n−1
Np
= · n = np.
N

15
3. Varianza:
N −n
V ar(X) = n pq
N −1
Demostración: Empezamos calculando el momento de orden dos:
¡Np¢¡ N q ¢
X X
2
E(X ) = 2
x · P (X = x) = x · x ¡Nn−x
2
¢ =
x x n
¡
N p Np−1
¢¡ N q ¢
X x x−1
= x2 · ¡N ¢ n−x =
x n
µ ¶µ ¶
Np X Np − 1 Nq
= ¡N ¢ ((x − 1) + 1) =
n x
x−1 n−x
" #
X µN p − 2¶µ N q ¶ X µN p − 1¶µ N q ¶

om
Np
= ¡N ¢ (N p − 1) + =
n x
x−2 n−x x
x−1 n−x
· µ ¶ µ ¶¸
Np Np + Nq − 2 Np + Nq − 1
= ¡N ¢ (N p − 1) + =

.c
n
x−2+n−x x−1+n−x
· µ ¶ µ ¶¸
Np N −2 N −1
= ¡N ¢ (N p − 1) + =
es
n
n−2 n−1
· ¸
N p n! (N − n)! (N p − 1)(n − 1)(N − 2)! + (N − 1)!
= =
d
N! (n − 1)!(N − n)!
en

np [(N p − 1)(n − 1) + (N − 1)]


= .
N −1
Entonces,
pr

V ar(X) = E(X 2 ) − (E(X))2 =


.a

np [(N p − 1)(n − 1) + (N − 1)]


= − (np)2 =
N −1
w

N −n
= npq ·
N −1
w
w

Interpretación
La distribución hipergeométrica se aplica con cierta frecuencia en el control
estadístico de calidad de una fabricación en serie. Así pues, si el lote bajo control
contiene N1 elementos buenos y N2 = N − N1 elementos defectuosos, cuando
tomamos una muestra de tamaño n sin reemplazamiento estaremos interesados
en saber el número de elementos buenos que han aparecido en la muestra de
tamaño n para así determinar la calidad del proceso de fabricación.

Relación entre la distribución hipergeométrica y la binomial


La diferencia esencial entre ambas distribuciones radica en que en la distribu-
ción binomial la probabilidad de éxito permanece constante en las n repeticiones
(muestra de n elementos con reemplazamiento) mientras que en la distribución
hipergeométrica no ocurre lo mismo, sino que la probabilidad de éxito varía de

16
una repetición a otra del experimento (muestra de n elementos sin reemplaza-
miento). Sin embargo, se cumple la siguiente propiedad:

Teorema 5 Sea X una variable aleatoria de tipo H(N, n, p). Entonces, si N es


muy grande en comparación con n, la distribución hipergeométrica se aproxima
a la binomial, es decir,

H(N, n, p) → B(n, p) si N → ∞.

Demostración: Partimos de la función de probabilidad hipergeométrica:


¡N p¢¡ Nq ¢
x
P (X = x) = ¡Nn−x
¢
n

om
Desarrollando los números combinatorios, obtendremos:

(N p)! (N q)! n!(N − n)!


P (X = x) = · · =
x!(N p − x)! (n − x)!(N q − n + x)! N!

.c
n! (N p)!(N q)!(N − n)!
= · =
x!(n − x)! (N p − x)!(N q − n + x)!N !
µ ¶
es
n N p · (N p − 1) · · · · · (N p − x + 1) · N q · (N q − 1) · · · · · (N q − n + x + 1)
= ·
x N · (N − 1) · (N − 2) · · · · · (N − n + 1)
d
Tomando límite cuando N → ∞, y teniendo en cuenta que el numerador es un
en

polinomio en N de grado n, cuyo término de mayor grado es (N p)x (N q)n−x =


N n px q n−x y el denominador es también un polinomio en N de grado n, cuyo
término de mayor grado es N n , tenemos
pr

µ ¶
n x n−x
lim P (X = x) = p q ,
N →∞ x
.a

que es la función de probabilidad de una B(n, p), tal como queríamos demostrar.
w
w

En la práctica, la aproximación de una distribución hipergeométrica a una


binomial, no requiere que N sea excesivamente grande, así pues consideraremos
w

aquí una buena aproximación cuando N > 50 y n ≤ 0.1N .

Ejemplo
Ejemplo 8 Un fabricante de faros para coches informa que en un envío de
4000 faros a un distribuidor, 500 tenían un ligero defecto. Si se compran a ese
distribuidor 20 faros al azar, ¿cuál es la probabilidad de que haya exactamente
2 defectuosos?
Solución: Sea X el número de faros defectuosos de entre 20 comprados.
Ajustamos una distribución hipergeométrica, es decir, X es de tipo H(4000, 20, 0.125).
Por tanto, ¡ ¢¡ ¢
500 3500
2
P (X = 2) = ¡400018
¢ = 0.2546.
20

17
Distribución de Poisson
Definición
Hay ciertos experimentos aleatorios que se caracterizan por las siguientes propiedades:

1. El número de sucesos que ocurren en un intervalo de tiempo o en una


región especificada son independientes del número de sucesos que ocurren
en cualquier otro intervalo o región.
2. La probabilidad de que un solo suceso o resultado ocurra en un intervalo
de tiempo muy pequeño o en una región muy pequeña, es proporcional
a la longitud de dicho intervalo de tiempo o al tamaño de la región, y
no depende del número de sucesos que se produzcan fuera del intervalo o
región considerada.

om
3. La probabilidad de que ocurran más de un resultado o suceso en un in-
tervalo de tiempo muy pequeño o en una región muy pequeña es prácti-
camente nula.

.c
Son ejemplos de experimentos aleatorios de este tipo los siguientes:
es
1. Accidentes de tráfico que se producen durante el fin de semana en una
determinada ciudad.
d
2. Llamadas telefónicas por día en una determinada oficina.
en

3. Automóviles que hay en un parking.

Este tipo de experimentos dan lugar a valores numéricos de una variable


pr

aleatoria. Así tenemos:


.a

1. El número de accidentes durante el fin de semana


2. El número de llamadas durante el día
w

3. El número de automóviles del parking


w

A este tipo de variables aleatorias se las llama de Poisson. La distribución de


w

probabilidad de este tipo de variables aleatorias depende solamente del número


medio λ de resultados que ocurren en un intervalo dado.
Decimos que una variable aleatoria X sigue una distribución de Poisson de
parámetro λ (λ > 0), si su función de probabilidad es:

λx −λ
f (x) = P (X = x) = e , x = 0, 1, 2, . . . ,
x!
donde λ es el número medio de resultados que ocurren en el intervalo dado. En
tal caso decimos que X es una variable de tipo P (λ).

18
Propiedades
1. Función de distribución:

 0 si x < 0
F (x) = P (X ≤ x) = Px
λi −λ
 i! e si x ≥ 0
i=0

2. Esperanza:
E(X) = λ

Demostración:

X ∞
X λx −λ
E(X) = x P (X = x) = x
e =
x=0 x=0
x!

om
· ¸
λ λ2 λ3
= e−λ 0 + 1 + 2 + 3 + · · · =
1! 2! 3!
· 2 3 ¸
λ λ
= eλ λ +

.c
+ + ··· =
1! 2!
· ¸
λ λ2
es
= e−λ λ 1 + + + ··· =
1! 2!
= e−λ · λ · eλ = λ.
d
en

3. Varianza:
V ar(X) = λ
pr

Demostración:
.a


X ∞
X λx −λ
E(X 2 ) = 2
x P (X = x) = x2 e =
x=0 x=0
x!
w

· 2 3 ¸
−λ λ 2λ 2λ
= e 0+1 +2 +3 + ··· =
w

1! 2! 3!
· ¸
−λ 2 3λ3 4λ4
w

= e λ + 2λ + + + ··· =
2! 3!
· ¸
3λ2 4λ3
= λe−λ 1 + 2λ + + + ··· =
2! 3!
· ¸
λ2 λ3
= λe−λ 1 + (1 + 1)λ + (1 + 2) + (1 + 3) + · · · =
2! 3!
· 2 3 2 ¸
−λ λ λ λ λ λ λ3
= λe 1+ + + + ··· + + 2 + 3 + ··· =
1! 2! 3! 1! 2! 3!
· 2 3 2 3 ¸
−λ λ λ λ λ λ λ
= λe 1+ + + + ··· + + + + ··· =
1! 2! 3! 1! 1! 2!
· µ ¶¸
λ λ2
= λe−λ eλ + λ 1 + + + ··· =
1! 2!
= λe−λ [eλ + λeλ ] = λ(1 + λ) = λ + λ2 .

19
Por lo tanto, la varianza vale
2
V ar(X) = E(X 2 ) − (E(X)) = λ + λ2 − λ2 = λ.

4. Función generatriz de momentos:


t
g(t) = eλ(e −1)

Demostración:

X ∞
X λx −λ
g(t) = E(etX ) = etx P (X = x) = etx e =
x=0 x=0
x!

X x ∞
X
tx λ (et λ)x

om
= e−λ e = e−λ =
x=0
x! x=0
x!
· ¸
−λ et λ (et λ) (et λ)3 2
= e 1+ + + + ··· =
1! 2! 3!

.c
t t t
= e−λ · ee λ
= e(e λ−λ)
= eλ(e −1)
.
d es
Teorema 6 Si X1 , X2 , . . . , Xn son variables independientes de tipo P (λ1 ), P (λ2 ), . . . , P (λn ),
respectivamente, entonces la variable X = X1 + X2 + · · · + Xn es de tipo
en

P (λ1 + λ2 + · · · + λn ).
Demostración: Utilizamos la función generatriz: como cada Xi es de tipo
P (λi ), entonces su función generatriz de momentos es
pr

t
gi (t) = eλi (e −1)
.
.a

Como todas las variables son independientes, entonces se obtiene


w

g(t) = E(etX ) = E(et(X1 +X2 +···+Xn ) ) = E(etX1 ) · E(etX2 ) · · · · · E(etXn ) =


t t t t
= eλ1 (e −1)
· eλ2 (e −1)
· · · · · eλn (e −1)
= e(λ1 +λ2 +···+λn )(e −1)
,
w

que es la función generatriz de momentos de una distribución de Poisson de


w

parámetro λ = λ1 + λ2 + · · · + λn .

Aproximación de la distribución binomial por la distribución de Pois-


son
Sea X una variable del tipo B(n, p). Supongamos que λ = np, con lo cual p = nλ
y q = 1 − nλ . Veamos qué ocurre con la distribución binomial cuando n → ∞ :
µ ¶
n x n−x
lim P (X = x) = lim p q =
n→∞ n→∞ x
µ ¶x µ ¶n−x
n(n − 1) · · · · · (n − x + 1) λ λ
= lim 1− =
n→∞ x! n n
¡ ¢n
n(n − 1) · · · · · (n − x + 1) λx limn → ∞ 1 − nλ
= lim lim ¡ ¢ .
λ x
n→∞ nx n → ∞ x! lim
n→∞ 1 − n

20
Calculamos cada uno de estos límites por separado:

n(n − 1) · · · · · (n − x + 1)
lim = 1,
n→∞ nx

ya que es una indeterminación del tipo ∞, y se trata de un cociente de polinomios
de igual grado.
λx λx
lim
=
n → ∞ x! x!
µ ¶n µ ¶n "µ ¶− nλ #−λ
λ 1 1
lim 1 − = lim 1 + n = lim 1+ n = e−λ .
n→∞ n n→∞ −λ n→∞ −λ
µ ¶x
λ
lim 1 − = 1x = 1.
n→∞ n

om
Por lo tanto, µ ¶
n x n−x λx −λ
lim p q = e .
n→∞ x x!

.c
Así pues la distribución binomial converge en ley a la distribución de Poisson
de parámetro λ. Esto significa que podemos aproximar la distribución binomial
es
por la de Poisson si n es grande y p pequeño, tomando como parámetro λ = np.
En la práctica, la distribución binomial se puede aproximar a una Poisson
cuando np < 5 y p < 0.1, y como la media en la distribución binomial es np y
d

en la distribución de Poisson es λ, entonces en esta aproximación se considera


en

que la media es λ = np.

Ejemplos
pr

Ejemplo 9 La probabilidad de que un coche se accidente en un cierto tramo de


carretera de 0.0001. Si recorren ese tramo 20000 coches, ¿cuál es la probabilidad
.a

de que se produzcan a lo sumo cinco accidentes?


Solución: Sea X el número de accidentes de entre 20000 coches. X tiene
w

una distribución B(20000, 0.0001). Como np = 2 < 5U y p = 0.0001 < 0.1,


se puede utilizar la aproximación de la binomial por una Poisson. X se puede
w

aproximar, pues por P (np) = P (2). Entonces obtenemos:


w

P (X ≤ 5) = P (X = 0) + P (X = 1) + P (X = 2) +
+ P (X = 3) + P (X = 4) + P (X = 5) =
20 −2 21 −2 22 −2 23 −2
= e + e + e + e +
0! 1! 2! 3!
24 −2 25 −2
+ e + e =
4! 5!
= 0.1353 + 0.2707 + 0.2707 + 0.1804 +
+ 0.0902 + 0.0361 =
= 0.9834.

21
Ejemplo 10 Una compañía de seguros calculó que el 0.01% de la población
fallece cada año de un cierto tipo de accidente. ¿Cuál es la probabilidad de que
la compañía tenga que pagar por más de cuatro de sus 10000 asegurados un año
dado?
Solución: Sea X el número de pagos efectuados en un año dado. X tiene
distribución B(10000, 0.0001). Como np = 1 < 5 y p = 0.0001 < 0.1, podemos
aproximar la binomial por una Poisson P (1). Entonces tenemos:

P (X > 4) = 1 − P (X ≤ 4) =
= 1 − [P (X = 0) + P (X = 1) + P (X = 2) + P (X = 3) + P (X = 4)] =
· 0 ¸
1 −1 11 −1 12 −1 13 −1 14 −1
= 1− e + e + e + e + e =
0! 1! 2! 3! 4!
= 1 − [0.3679 + 0.3679 + 0.1839 + 0.0613 + 0.0153] =

om
= 0.0037.

.c
Ejemplo 11 Se ha comprobado que el número medio de coches que llegan a
un estación de servicio es de 180 a la hora. Si en dicha estación se pueden
es
atender cinco coches por minuto, calcular la probabilidad de que en un minuto
dado queden coches sin atender.
Solución: Sea X el número de coches que llegan en un minuto. El número
d
medio de coches por minuto es λ = 180
60 = 3, luego el modelo es una distribución
en

de Poisson de parámetro λ = 3. Entonces tenemos:

P (X > 5) = 1 − P (X ≤ 5) =
pr

X5
= 1− P (X = x) =
i=0
.a

X5
3x −3
= 1− e =
x!
w

i=0
= 1 − (0.0498 + 0.1494 + 0.2240 +
w

+ 0.2240 + 0.1680 + 0.1008) =


= 0.0840.
w

Distribuciones de probabilidad de tipo continuo


En esta sección nos ocuparemos de modelos probabilísticos asociados a variables
aleatorias de tipo continuo.

Distribución uniforme
Definición
Se dice que la v.a. X tiene distribución uniforme o rectangular en el intervalo
[a, b], a < b, si su función de densidad es constante en [a, b] y nula en el resto.

22
R +∞
Como f (x) ≥ 0 para todo x ∈ R, y −∞ f (x) dx = 1, se tiene que
Z +∞
1
k dx = 1 ⇒ k(b − a) = 1 ⇒ k = .
−∞ b − a
Por tanto, la función de densidad viene dada por
½ 1
b−a si x ∈ [a, b]
f (x) = .
0 si x ∈
/ [a, b]
Diremos que X es una variable de tipo U [a, b].

Propiedades
1. Función de distribución:

om
 0 si x < a
x−a
F (x) = b−a si a ≤ x ≤ b

1 si x > b

.c
Demostración:
Z x
es
Si x < a, F (x) = P (X ≤ x) = 0 dt = 0.
−∞
Z x Z a Z x
1 x−a
d
Si a ≤ x ≤ b, F (x) = P (X ≤ x) = f (t) dt = 0 dt + dt = .
−∞ −∞ a b−a b−a
Z Z Z Z x
en

x a b
1
Si b < x, F (x) = P (X ≤ x) = f (t) dt = 0 dt + dt + 0 dt = 1.
−∞ −∞ a b−a b
pr

2. Función generatriz de momentos:


.a

( tb
e −eta
t(b−a) si t 6= 0
g(t) =
1 si t = 0
w
w

Demostración: Si t 6= 0 :
Z +∞ Z b · tx ¸b
1 1 e
w

tX tx tx
g(t) = E(e ) = e f (x) dx = e dx = =
−∞ a b−a b−a t a
etb − eta
= .
t(b − a)
Si t = 0 :
g(0) = E(e0X ) = E(1) = 1.

3. Esperanza:
a+b
E(X) =
2
R +∞ Rb 1 h ib
1 x2 1 b2 −a2
Demostración: E(X)= −∞ x f (x) dx = a x b−a dx = b−a 2 = 2 b−a =
a
a+b
2 .

23
4. Varianza:
1
V ar(X) = (b − a)2
12
Demostración:
Z +∞ Z b · 3 ¸b
2 2 2 1 1 x
E(X ) = x f (x) dx = x dx = =
−∞ a b−a b−a 3 a
1 b − a3
3
1
= = (b2 + ab + a2 ).
3 b−a 3
Por tanto,
µ ¶2
1 a+b
V ar(X) = E(X ) − [E(X)] = (b2 + ab + a2 ) −
2 2
=
3 2

om
b2 + ab + a2 a2 + 2ab + b2
= − =
3 4
b2 − 2ab + a2 (b − a)2
= = .

.c
12 12 es
Ejemplo
d
Ejemplo 12 Una variable de tipo uniforme U [a, b] tiene por media µ = 200 y
por varianza σ 2 = 12. Calcular la probabilidad de que X sea menor que 196.
en

Solución: En primer lugar debemos calcular a y b. Como X tiene distribu-


ción U [a, b], sabemos que
pr

a+b
µ =
2
.a

1
σ2 = (b − a)2
12
w

Por tanto, ¾
a+b
2 = 200
w

1 2
12 (b − a) = 12
resolviendo el sistema, obtenemos
w

a = 194
b = 206

La función de densidad de X es

 0 si x ≤ 194
1
f (x) = si 194 ≤ x ≤ 206
 12
0 si x > 206

y por consiguiente,
Z 196 Z 196
1 1
P (X ≤ 196) = f (x) dx = dx = .
−∞ 194 12 6

24
Distribución Gamma
Definición
Se dice que la v.a. X sigue una distribución gamma de parámetros p > 0 y
a > 0 (y se denota por γ(p, a)) si su función de densidad viene dada por
( p p−1 −ax
a x e
Γ(p) si x > 0
f (x) = ,
0 en otro caso

donde Γ denota la función gamma, definida por


Z +∞
Γ(p) = xp−1 e−x dx.
0

om
Recordamos alguna propiedades de la función Γ :

1. Γ(p) = (p − 1) · Γ(p − 1)
2. Si p ∈ N, entonces Γ(p) = (p − 1)!

.c
¡ ¢ √
3. Γ 12 = π
es
Propiedades
d
1. Función de distribución:
½ Rx
en

ap
Γ(p) 0
xp−1 e−ax dx si x > 0
F (x) =
0 si x ≤ 0
pr

2. Función generatriz de momentos:


µ ¶−p
t
.a

g(t) = 1−
a
w

Demostración:
Z Z
w

+∞ +∞
ap xp−1 e−ax
g(t) = E(etX ) = etx f (x) dx = etx dx =
−∞ 0 Γ(p)
w

Z +∞
ap ap Γ(p)
= e−(a−t)x xp−1 dx = =
Γ(p) 0 Γ(p) (a − t)p
µ ¶−p µ ¶−p
ap a−t t
= = = 1− .
(a − t)p a a

3. Esperanza:
p
E(X) =
a
¯
dg(t) ¯
Demostración: Sabemos que E(X) = dt ¯ . Como
t=0
µ ¶−p−1 µ ¶ µ ¶−p−1
dg(t) t 1 p t
= −p 1 − − = 1− ,
dt a a a a

25
entonces ¯
dg(t) ¯¯ p
E(X) = = .
dt ¯t=0 a

4. Varianza:
p
V ar(X) =
a2
Demostración: Como
µ ¶−p−2 µ ¶ µ ¶−p−2
d2 g(t) p t 1 p(p + 1) t
= (−p − 1) 1 − − = 1− ,
dt2 a a a a2 a
entonces ¯
d2 g(t) ¯¯ p(p + 1)

om
E(X 2 ) = = .
dt2 ¯t=0 a2
Por lo tanto,

.c
p(p + 1) p2 p
V ar(X) = E(X 2 ) − [E(X)]2 = − 2 = 2.
a2 a a
es
Teorema 7 Si X1 , X2 , . . . , Xn son variables aleatorias independientes con dis-
d
tribuciones γ(p1 , a), γ(p2 , a), . . . , γ(pn , a), respectivamente, entonces X = X1 +
en

· · · + Xn es de tipo γ(p1 + · · · + pn , a).


Demostración: Utilizamos el método de la función generatriz. Para cada
i = 1, 2, . . . , n, la función generatriz de la variable Xi viene dada por gXi (t) =
¡ ¢−pi
pr

1 − at . Por tanto,

gX (t) = gX1 +X2 +···+Xn (t) = gX1 (t) · gX2 (t) · · · · · gXn (t) =
.a

µ ¶−p1 µ ¶−p2 µ ¶−pn


t t t
= 1− · 1− · ··· · 1 − =
w

a a a
µ P
¶− ni=1 pi
t
w

= 1− ,
a
P
w

que es la función generatriz de una variable aleatoria de tipo γ ( ni=1 pi , a) .

Ejemplo
Ejemplo 13 El tiempo de duración X de una pieza de un cierto equipo se
distribuye según una distribución gamma de parámetros p = 3 y a = 0.2. Deter-
minar:

1. Probabilidad de que el equipo funcione más de 10 horas.


2. Probabilidad de que el quipo funcione entre 10 y 15 horas.

Solución:

26
1. Teniendo en cuenta la expresión de la función de distribución de una
γ(p, a), tenemos que
Z ¡ 1 ¢3 Z ∞
(0.2)3 ∞ 2 −(0.2)x
P (X > 10) = x e dx = 5 x2 e−x/5 dx.
Γ(3) 10 Γ(3) 10
Esta integral se puede resolver por partes, reiterando dos veces el proced-
imiento, y resultaría
Z
x2 e−x/5 dx = −5x2 e−x/5 − 50x e−x/5 − 250e−x/5 =

= (−5x2 − 50x − 250) e−x/5

Por tanto,

om
1 h i∞
P (X > 10) = (−5x2 − 50x − 250) e−x/5 =
125 · 2 10
1
= (500 + 500 + 250) e−2 ' 0.68.
250
2.
.c
es
¡ 1 ¢3 Z 15
P (10 ≤ X ≤ 15) = 5
x2 e−x/5 dx =
Γ(3)
d
10
1 h i15
= (−5x2 − 50x − 250) e−x/5 =
en

125 · 2 10
1 ¡ ¢
= (−1.125 − 750 − 250) e−3 − (−500 − 500 − 250) e−2 =
250
pr

= 0.25.
.a

Distribución exponencial
w

Definición
w

Se dice que la variable aleatoria X tiene distribución exponencial de parámetro


w

a (y se denota por Exp(a)) si su función de densidad es de la forma


½ −ax
ae si x > 0
f (x) = .
0 si x ≤ 0

Obsérvese que esta distribución es un caso particular de la distribución


gamma de parámetros 1 y a, es decir Exp(a) = γ(1, a), lo cual nos permite
en seguida obtener las características de la exponencial haciendo p = 1 en los
correspondientes para la distribución gamma. Así tenemos:

Propiedades
1. Función de distribución:
½ R x −ax
0
ae dx = 1 − e−ax si x > 0
F (x) =
0 si x ≤ 0

27
2. Función generatriz de momentos:
µ ¶−1
t
g(t) = 1−
a

3. Media:
1
E(X) =
a
4. Varianza:
1
V ar(X) =
a2
Teorema 8 Si X1 , X2 , . . . , Xn son n variables aleatorias independientes e idén-
ticamente distribuidas, con distribución Exp(a), entonces X = X1 + X2 + · · · +
Xn sigue una distribución γ(n, a).

om
Demostración: Dado que cada Xi , i = 1, . . . , n sigue una distribución
Exp(a), entonces es también de tipo γ(1, a). Por el teorema de adición de vari-
ables aleatorias con distribución γ(p, a), sabemos que X = X1 + X2 + · · · + Xn
es de tipo γ(1 + 1 + · · · + 1, a) = γ(n, a).

Ejemplo
.c
es
Ejemplo 14 En un parking público se ha observado que los coches llegan aleato-
ria e independientemente a razón de 360 coches por hora. Utilizando la distribu-
d
ción exponencial, encontrar la probabilidad de que el próximo coche no llegue
en

dentro de medio minuto.


Solución: Sea X el tiempo que transcurre entre dos llegadas consecutivas.
Tanto X como el parámetro a deben venir expresadas en la misma unidad. Así
pr

pues, el parámetro a es el número de coches que llegan por minuto, y vale


360
a= =6 coches por minuto.
.a

60
Entonces la probabilidad deseada es
w

P (X ≥ 0.5) = 1 − P (X < 0.5) = 1 − F (0.5) =


w

= 1 − (1 − e−6·0.5 ) = e−3 = 0.049.


w

Distribución de Weibull
Definición
Se dice que la variable aleatoria X sigue una distribución de Weibull de parámet-
ros α y β (y se denota W (α, β)) si su función de densidad es
½ β
αβ xβ−1 e−αx si x > 0
f (x) = .
0 si x ≤ 0
Si se toma β = 1 resulta la distribución exponencial, es decir, Exp(α) =
W (α, 1). La esperanza y la varianza de una variable X ∈ W (α, β) son:
1
E(X) = α−1/β Γ(1 + )
β

28
( · ¸2 )
−2/β 2 1
V ar(X) = α Γ(1 + ) − Γ(1 + )
β β
Esta distribución se utiliza en problemas de fiabilidad de sistemas para estudiar
la distribución del tiempo transcurrido para que se produzca el fallo de un
componente del sistema.

Distribución Beta
Definición
Diremos que una variable aleatoria X de tipo continuo sigue una distribución
beta de parámetros p y q, siendo p, q ∈ R y p, q > 0, si la función de densidad
es ½ 1 p−1
β(p,q) x (1 − x)q−1 si 0 < x < 1

om
f (x) = ,
0 en otro caso
donde β(p, q) es la función beta, y se define por
Z

.c
1
β(p, q) = xp−1 (1 − x)q−1 dx, p > 0, q > 0.
0
es
Como
Γ(p) · Γ(q)
β(p, q) = ,
d
Γ(p + q)
en

la función de densidad se puede expresar equivalentemente de la forma


(
Γ(p+q) p−1
Γ(p) Γ(q) x (1 − x)q−1 si 0 < x < 1
f (x) =
pr

0 en otro caso

Abreviadamente, diremos que X es de tipo β(p, q).


.a

Obsérvese que la función de densidad está definida sobre el intervalo (0, 1),
lo cual nos indica que esta familia de distribuciones es muy útil para modelar
w

proporciones (proporción de piezas defectuosas en un lote, participación de la


producción de una empresa con respecto al total de lo producido en ese sector,
w

etc.).
w

Propiedades
1. Función de distribución:

 R 0 si x ≤ 0
x 1 p−1 q−1
F (x) = x (1 − x) dx si 0<x≤1
 0 β(p,q)
1 si x ≥ 1

2. Esperanza:
p
E(X) =
p+q

29
Demostración: Calculamos primero los momentos de orden r respecto
al origen, para poder obtener fácilmente la esperanza y la varianza:
Z 1 Z 1
r r 1 p−1 q−1 1
E(X ) = x · x (1 − x) dx = xp+r−1 (1 − x)q−1 dx =
0 β(p, q) β(p, q) 0
β(p + r, q) Γ(p + r) · Γ(q) Γ(p + q)
= = · =
β(p, q) Γ(p + r + q) Γ(p) · Γ(q)
Γ(p + r) · Γ(p + q) (p + r)! · (p + q)!
= =
Γ(p + r + q) · Γ(p) (p + r + q)! · (p)!
(p + r − 1) · · · · · (p + 1) · p
=
(p + r + q − 1) · · · · · (p + q)

Haciendo r = 1, obtenemos la expresión de la esperanza:

om
p
E(X) = .
p+q

.c
3. Varianza:
pq
es
V ar(X) =
(p + q + 1)(p + q)2

Demostración: Sabemos que el momento de orden r viene dado por


d

(p + r − 1) · · · · · (p + 1) · p
en

E(X r ) = .
(p + r + q − 1) · · · · · (p + q)

Haciendo r = 2 obtenemos la expresión del momento de orden 2:


pr

(p + 1)p
E(X 2 ) = .
.a

(p + q + 1)(p + q)

Entonces la varianza es
w

(p + 1)p p2
V ar(X) = E(X 2 ) − (E(X))2 = − =
w

(p + q + 1)(p + q) (p + q)2
(p2 + p)(p + q) − p2 (p + q + 1)
w

= =
(p + q + 1)(p + q)2
pq
= .
(p + q + 1)(p + q)2

Ejemplo
Ejemplo 15 Si consideramos una variable aleatoria X que representa la pro-
porción de personas que consumen una determinada marca de aceite de oliva y
que sigue una distribución beta de parámetros p = 1 y q = 1, β(1, 1), determinar
la probabilidad de que dicha proporción esté comprendida entre el 10% y el 50%.
Solución: Sabemos que la distribución beta se puede utilizar para repre-
sentar variables físicas cuyos valores están comprendidos en el intervalo (0, 1),

30
es decir, para representar proporciones. La probabilidad pedida es
Z 0.5
Γ(1 + 1) 1−1
P (0.1 ≤ X ≤ 0.5) = x (1 − x)1−1 dx =
0.1 Γ(1) · Γ(1)
Z 0.5
= dx = [x]0.5
0.1 = 0.4.
0.1

Distribución normal
Definición
Se dice que la variable aleatoria X sigue una distribución normal reducida, y se
denota por N (0, 1), si su función de densidad es

om
1 x2
f (x) = √ e− 2 para todo x ∈ R.

.c
Propiedades
es
1. Función de distribución:
Z x
1 x2
F (X) = P (X ≤ x) = √ e− 2 dx
d
−∞ 2π
en

La función de distribución da la probabilidad acumulada desde −∞ hasta


cada valor de x. Gráficamente, este valor es el área entre −∞ y x limitada
x2
pr

por el eje x y la curva normal. Como e− 2 es integrable en el sentido de


Riemann en cualquier intervalo, F (x) existe para cada x, pero no posee
una primitiva elemental. Por eso se han tabulado las probabilidades de la
.a

N (0, 1).
w

2. Función generatriz de momentos:


t2
w

g(t) = e 2
w

Demostración:
Z +∞ Z +∞
1 x2 1 x2
g(t) = E(etX ) = etx √ e− 2 dx = √ e− 2 +tx dx =
−∞ 2π 2π −∞
Z +∞ 2 Z +∞
1 t (x−t)2
1 t 2 (x−t)2
= √ e 2 e− 2 dx = √ e 2 e− 2 dx
2π −∞ 2π −∞

Haciendo el cambio de variable x − t = z, dx = dz, tenemos:


Z
1 t2 +∞ − z2 1 t2 √ t2
g(t) = √ e 2 e 2 dz = √ e 2 2π = e 2 .
2π −∞ 2π

31
3. Esperanza:
µ = E(X) = 0

Demostración: Desarrollando g(t) en serie de McLaurin, resulta:

t2 t2 /2 (t2 /2)2 t2 t4
g(t) = e 2 = 1 + + + ··· = 1 + + 2 + ··· ,
1! 2! 2 2 · 2!
de donde obtenemos
¯
dg(t) ¯¯
µ = E(X) = = 0.
dt ¯t=0

4. Varianza:

om
V ar(X) = 1

Demostración: Hemos visto que el desarrollo de g(t) en serie de McLau-


rin es:

.c
t2 t2 t4
g(t) = e 2 = 1 + + 2 + ··· ,
2 2 · 2!
es
de donde obtenemos
¯
d2 g(t) ¯¯
d
2
E(X ) = = 1.
dt2 ¯t=0
en

Por tanto,
σ 2 = E(X 2 ) − [E(X)]2 = 1 − 0 = 1.
pr
.a

La función f tiene su máximo en x = 0, luego 0 es, además de la media, la


moda de esta distribución. Tiene dos puntos de inflexión, en x = 1, x = −1, y
es simétrica respecto del eje Y , lo que resulta muy útil en el manejo de tablas.
w

Además, desde el punto de vista estadístico, esto implica que la mediana es


también x = 0.
w

Definición 1 Se dice que la variable aleatoria X sigue una distribución normal


w

de media µ y desviación típica σ, y se denota N (µ, σ), si su función de densidad


es
1 (x−µ)2
f (x) = √ e− 2σ2 para todo x ∈ R.
σ 2π
Su gráfica tiene el máximo en x = µ, es simétrica respecto de esta recta y
tiene dos puntos de inflexión situados en las abscisas µ − σ y µ + σ.
La distribución N (µ, σ) se puede obtener a partir de la N (0, 1) utilizando el
cambio de variable Y = µ + σX :
µ ¶
x−µ
FY (x) = P (Y ≤ x) = P (µ + σX ≤ x) = P X ≤ =
σ
µ ¶ Z x−µ
x−µ σ 1 u2
= FX = √ e− 2 du
σ −∞ 2π

32
Por tanto,
µ ¶ µ ¶
1 0 x−µ 1 x−µ
fY (x) = FY0 (x) = F = fX ,
σ X σ σ σ

de donde
1 2 2
fY (x) = √ e−(x−µ) /2σ .
σ 2π
Esta transformación de variables posibilita el paso de la N (µ, σ) a la N (0, 1) y,
en consecuencia, la utilización de las tablas de la N (0, 1) para la resolución de
problemas de la N (µ, σ).

Definición 2 Dada la variable Y de tipo N (µ, σ), se llama variable tipificada


a
Y −µ

om
X= .
σ
Observación 1 Sabemos que una variable tipificada tiene distribución N (0, 1),
con lo cual si queremos calcular, por ejemplo, P (3 < Y < 5), donde Y es de

.c
tipo N (3, 2), haremos
µ ¶
es
3−3 Y −3 5−3
P (3 < Y < 5) = P < < = P (0 < X < 1),
2 2 2
d
donde X es N (0, 1), y se puede calcular P (0 < X < 1) a partir de las tablas.
en

A partir de la relación entre N (µ, σ) y N (0, 1), se pueden deducir las propiedades
de toda variable aleatoria Y de tipo N (µ, σ) :
pr

Propiedades
.a

1. Función generatriz de momentos:


(tσ)2
w

g(t) = etµ+ 2
w

Demostración:
³ ´
w

2 (tσ)2
g(t) = E(etY ) = E et(µ+σX) = etµ E(etσX ) = etµ e(tσ) /2 = etµ+ 2 .

2. Esperanza:
µ = E(X) = µ

Demostración:

E(Y ) = E(µ + σX) = µ + σE(X) = µ + σ · 0 = µ.

Por tanto, el primer parámetro de N (µ, σ) es precisamente su media.

33
3. Varianza:
V ar(X) = σ 2

Demostración:

V ar(Y ) = σ 2 V ar(X) = σ 2 · 1 = σ 2 .

Por tanto, la desviación típica de N (µ, σ) es σ, precisamente el segundo


parámetro.

Teorema 9 Si X1 , . . . , Xn son variables aleatorias independientes con distribu-


ciones Xi ∈ N (µi , σ i ), i = 1, . ³
. . , n, entonces la variable suma´X = X1 + X2 +
p
· · · + Xn tiene distribución N µ1 + · · · + µn , σ 21 + · · · + σ 2n .
Demostración: Utilizamos el método de la función generatriz:

om
gX (t) = E(etX ) = E(etX1 ) · E(etX1 ) · · · · · E(etX1 ) =
2 2 2
= etµ1 +(tσ1 ) /2
· etµ2 +(tσ2 ) /2
· · · · · etµn +(tσn ) /2
=
2
t(µ1 +µ2 +···+µn )+ t2 (σ 21 +σ 22 +···+σ 2n )

.c
= e ,

que es la función generatriz de una distribución


es
µ q ¶
2 2
N µ1 + · · · + µn , σ 1 + · · · + σ n .
d
en

Teorema 10 Si X1 , . . . , Xn son variables aleatorias independientes e igual-


pr

mente distribuidas según una N (µ, σ), entonces la variable

X1 + · · · + Xn
X=
.a

n
³ ´
es de tipo N µ, √σn .
w

Demostración: Utilizamos el método de la función generatriz:


w

³ X1 X2 Xn
´ ³ t ´ ³ t ´ ³ t ´
gX (t) = E(etX ) = E et( n + n +···+ n ) = E e n X1 · E e n X2 · · · · · E e n Xn =
w

µ 2
¶ µ 2
¶ µ 2
¶ µ 2
¶n
t
µ+ (tσ) t
µ+ (tσ) t
µ+ (tσ) t
µ+ (tσ)
= e n 2n2
· e n 2n2
· ··· · e n 2n2
= e n 2n 2
=
2
= etµ+(tσ) /2n
,

que es la función generatriz de una distribución normal de media µ y desviación


típica √σn .

Teorema 11 Si X es una variable aleatoria con distribución B(n, p), entonces


se cumple
X − np
Y = √ −→ N (0, 1)
npq
cuando n → ∞.

34
Demostración: Como X tiene distribución B(n, p), su función generatriz
es (pet + q)n , luego la función generatriz de Y será
√ √ √
gY (t) = E(etY ) = E(et(X−np)/ npq ) = e−npt/ npq · E(etX/ npq ) =
√ ³ √ ´n ³ √ ´n ³ √ ´n
= e−npt/ npq pet/ npq + q = e−pt/ npq pet/ npq + q =
³ √ √ ´n ³ √ √ ´n
= pet(1−p)/ npq + qe−tp/ npq = petq/ npq + qe−tp/ npq .
P∞ zr
Considerando el desarrollo de McLaurin de ez = r=0 r! hasta el término de
grado dos, resulta
√ pq pq 2 2 pq 3
petq/npq
= p+ √ t+ t +θ t3
npq 2npq 3!(npq)3/2

om
√ pq p2 q 2 p3 q
qe−tp/npq
= q− √ t+ t +θ t3
npq 2npq 3!(npq)3/2

de donde se obtiene

.c
µ ¶n
t2 (pq 3 + qp3 )t3
gY (t) = 1+ +θ
3!(npq)3/2
es
2n

Definiendo
t2 (pq 3 + qp3 )t3
d
z= +θ √ ,
2 3!(pq)3/2 n
en

resulta ³ z´ n ³ z´
log gY (t) = n log 1 + = z log 1 + .
n z n
pr

Si t es fijo y n → ∞, entonces

t2
.a

z →
2
z
w

→ 0
n ¡ ¢
n ³ z´ log 1 + nz t2
w

z log 1 + = z· z → z →
z n n 2
w

Por tanto,
2
lim gY (t) = et /2
,
que es la función generatriz de momentos de la N (0, 1).

Este teorema nos permite aproximar probabilidades binomiales mediante la


normal. La aproximación es muy buena si n es grande, pero incluso es aceptable
para n pequeña si p está próximo a 12 . En la práctica se suele aceptar como
buena la aproximación cuando np y nq son mayores que 5.
Como la variable B(n, p) es discreta, cuando se aproxime mediante la normal
habrá de hacerse por intervalos. Po ejemplo, si X es de tipo B(100, 12 ) y quer-
emos calcular P (X = 45), aproximaremos X por una N (50, 5), y calcularemos
P (44.5 < X < 45.5), donde X ya se considera N (0, 1). Es decir, se cambia el
valor discreto de la binomial por un intervalo de amplitud 1 centrado en el valor
que vamos a calcular.

35
Ejemplos
Ejemplo 16 La estatura Y de un cierto grupo de personas sigue una distribu-
ción normal de media µ = 1.70 m y desviación típica σ = 0.10 m. Calcular la
probabilidad de que una persona seleccionada al azar mida más de 1.80.
Solución: Y tiene distribución N (1.70, 0.10). Tipificando esta variable se
−1.70
obtiene una nueva variable X = Y 0.10 de tipo N (0.1). Entonces,
µ ¶
Y − 1.70 1.80 − 1.70
P (Y > 1.80) = P > = P (X > 1) = 0.1587.
0.10 0.10

Ejemplo 17 La longitud de ciertas piezas sigue una distribución N (32, 0.3).

om
1. Calcular la probabilidad de que una pieza tenga una longitud comprendida
entre 31.1 y 32.6.
2. Si se eligen tres piezas al azar, ¿cuál es la probabilidad de que dos y sólo

.c
dos de ellas tengan longitud comprendida en el intervalo [31.1, 32.6]?
es
Solución:
1. Sea Y la longitud de las piezas. Sabemos que la distribución de Y es
−32
N (32, 0.3). Tipificando, obtenemos una nueva variable X = Y 0.3
d
de tipo
N (0, 1).
en

µ ¶
31.1 − 32 Y − 32 32.6 − 32
P (31.1 < Y < 32.6) = P < < =
0.3 0.3 0.3
pr

= P (−3 < X < 2) = P (X < 2) − P (X < −3) = 0.9758.


.a

2. Si se eligen tres piezas al azar, sea Z el número de piezas comprendidas


en el intervalo [31.1, 32.6]. Z tiene distribución B(3, 0.9758). Por tanto,
w

µ ¶
3
P (Z = 2) = (0.9758)2 0.0242 = 0.0695.
w

2
w

Ejemplo 18 Calcular la probabilidad de obtener entre 3 y 6 caras, ambas in-


clusive, en 10 lanzamientos de una moneda, utilizando:

1. La distribución binomial,
2. La distribución normal.

Solución:

36
1. Sea Y el número de caras en 10 lanzamientos de una moneda. Y es de
tipo B(10, 12 ). Por tanto,
P (3 ≤ Y ≤ 6) = P (Y = 3) + P (Y = 4) + P (Y = 5) + P (Y = 6) =
µ ¶ µ ¶3 µ ¶7 µ ¶ µ ¶4 µ ¶6
10 1 1 10 1 1
= + +
3 2 2 4 2 2
µ ¶ µ ¶5 µ ¶5 µ ¶ µ ¶6 µ ¶4
10 1 1 10 1 1
+ + =
5 2 2 6 2 2
·µ ¶ µ ¶ µ ¶ µ ¶¸
1 10 10 10 10
= 10
+ + + =
2 3 4 5 6
= 0.7734

2. Aproximamos Y por una N (np, npq) = N (5, 1.58). Entonces la variable

om
tipificada X = Y1.58−5
tiene distribución N (0, 1). Cada valor discreto de la
binomial se convierte en un intervalo de la normal de amplitud 1 centrado
en dicho valor, con lo que resulta:
µ ¶

.c
2.5 − 5 Y −5 6.5 − 5
P (2.5 < Y < 6.5) = P < < =
1.58 1.58 1.58
es
= P (−1.58 < X < 0.95) = 0.7718.
d
Ejemplo 19 Dos establecimientos venden el mismo tipo de artículo. Las ventas
en

se distribuyen, para el primer establecimiento, según una N (1200, 100), y para


el segundo, según una N (1000, 90). Calcular la probabilidad de que las ventas
del primero superen en más de 50 unidades a las del segundo.
pr

Solución: Sean
X1 = unidades vendidas en el primer establecimiento
.a

X2 = unidades vendidas en el segundo establecimiento


Como X1 es de tipo N (1200, 100) √y X2 , de tipo N (1000, 90), entonces Y =
w

X1 − X2 es de tipo N (1200 − 1000, 1002 + 902 ) = N (200, 134.53). Por tanto,


µ ¶
w

Y − 200 50 − 200
P (Y > 50) = P > =
134.53 134.53
w

= P (X > −1.11) = 0.8665.

Distribución Log-normal
Definición
Una variable aleatoria X de tipo continuo, no negativa, sigue una distribución
log-normal de parámetros µ y σ si la variable aleatoria Y = ln X sigue una
distribución N (µ, σ), con −∞ < µ < +∞ y σ > 0. Su función de densidad es
( 2 2
2
√ e[−(ln x−µ) /2σ ] si x > 0
f (x) = xσ 2π
0 si x ≤ 0
Abreviadamente, diremos que X es de tipo log N (µ, σ).

37
Propiedades
1. Función de distribución: La función de distribución de una variable aleato-
ria X log-normal en x es igual a la función de distribución de una variable
N (0, 1) en ln x−µ
σ .
Demostración: Sea X una variable aleatoria log-normal, e Y = ln X,
que sigue una distribución N (µ, σ). Entonces
µ ¶
Y −µ ln x − µ
FX (x) = FY (ln x) = P (Y ≤ ln x) = P ≤ '
σ σ
µ ¶ µ ¶
ln x − µ ln x − µ
' P Z≤ =F .
σ σ

om
2. Esperanza:
1 2
E(X) = eµ+ 2 σ
Demostración: Calculemos primero el momento de orden r respecto al
origen de la variable X, teniendo en cuenta que
Y = ln X ⇒
.c X = eY .
es
Sabemos que la función generatriz de momentos para una variable aleato-
ria Y de tipo N (µ, σ) es
d
1 2
σ2
gY (t) = E(etY ) = etµ+ 2 t
en

Por tanto, el momento de orden r de X es:


E(X r ) = E(erY ),
pr

que coincide con la función generatriz de momentos de Y evaluada en


t=r:
.a

1 2 2
E(X r ) = E(erY ) = erµ+ 2 r σ .
Haciendo r = 1, obtenemos la esperanza, que viene dada por
w

1 2
E(X) = eµ+ 2 σ .
w
w

3. Varianza: 2 2
V ar(X) = e2µ+σ · (eσ − 1)
Demostración: Sabemos que el momento de orden r viene dado por
2
1
σ2
E(X r ) = E(erY ) = erµ+ 2 r .
Por tanto, el momento de orden 2 es
1 2
E(X 2 ) = e2µ+ 2 4σ .
Por tanto, la varianza es
1 2
³ ´
1 2 2
V ar(X) = E(X 2 ) − (E(X))2 = e2µ+ 2 4σ − eµ+ 2 σ =
2 2 2 2
= e2µ+2σ − e2µ+σ = e2µ+σ · (eσ − 1).

38
Ejemplo
Ejemplo 20 El consumo semanal de gasoil de los autobuses urbanos de una
ciudad sigue una distribución log-normal de parámetros µ = 4 y σ = 1.5. De-
terminar:

1. La probabilidad de que el consumo semanal sea como máximo de 600 litros.


2. La probabilidad de que el consumo semanal esté comprendido entre 500 y
700 litros.

Solución: Sea X la variable aleatoria que representa el consumo semanal


de gasoil, y sabemos que tiene distribución logN (4, 1.5).

1. La probabilidad de que el consumo semanal sea como máximo de 600 litros

om
es
µ ¶
ln X − 4 ln 600 − 4
P (X ≤ 600) = P (ln X ≤ ln 600) = P ≤ '
1.5 1.5
µ ¶ µ ¶

.c
ln 600 − 4 6.39 − 4
' P Z≤ =P Z≤ =
1.5 1.5
es
= P (Z ≤ 1.59) = F (1.59) = 0.9441.
d
2. La probabilidad de que el consumo semanal esté comprendido entre 500 y
700 litros es:
en

P (500 ≤ X ≤ 700) = P (ln 500 ≤ ln X ≤ ln 700) =


µ ¶
ln 500 − 4 ln X − 4 ln 700 − 4
pr

= P ≤ ≤ '
1.5 1.5 1.5
µ ¶
6.21 − 4 6.55 − 4
.a

' P ≤Z≤ =
1.5 1.5
= P (1.47 ≤ Z ≤ 1.7) = F (1.7) − F (1.47) =
w

= 0.9554 − 0.9292 =
w

= 0.0262.
w

Distribución χ2 de Pearson
Definición
Dadas las variables X1 , X2 , . . . , Xn de tipo N (0, 1) e independientes, se llama
variable χ2 de Pearson con n grados de libertad a la variable definida por

χ2 = X12 + X22 + · · · + Xn2 .

Es decir, la χ2 es suma de cuadrados de variables N (0, 1) independientes. Su


función de densidad es
½ 1 n x
2 −1 e− 2
2n/2 Γ(n/2) x si x > 0
f (x) =
0 si x ≤ 0

39
A la distribución de probabilidad de variable continua definida por f se le conoce
como distribución χ2 de Pearson con n grados de libertad y se denota por χ2n .
Está claro que n es el único parámetro de esta distribución. Mirando la función
de densidad, se tiene que µ ¶
2 n 1
χn = γ , ,
2 2
de donde podemos deducir las propiedades de la distribución χ2n :

Propiedades
1. Esperanza:
E(X) = n
Demostración: Sabemos que la esperanza de¡una ¢distribución γ(p, a) es
µ = ap . Por tanto, la esperanza de una χ2n = γ n2 , 12 es

om
n/2
E(X) = = n.
1/2

2. Varianza:
.c
es
σ 2 = V ar(X) = 2n
Demostración: Sabemos que la varianza de una ¡ distribución
¢ γ(p, a) es
d
σ 2 = ap2 . Por tanto, la varianza de una χ2n = γ n2 , 12 es
en

n/2
V ar(X) = = 2n.
(1/2)2
pr

3. Función generatriz de momentos:


n
gX (t) = (1 − 2t)− 2
.a

Demostración: Sabemos que la función generatriz de momentos de una


¡ ¢−p
w

distribución γ(p,
¡ a) es
¢ gX (t) = 1 − at . Por tanto, la función generatriz
de una χ2n = γ n2 , 12 es
w

µ ¶− n2
t n
= (1 − 2t)− 2 .
w

gX (t) = 1 −
1/2

4. Si X es una variable
√ aleatoria distribuida según una χ2n , entonces
√ la vari-
able aleatoria 2X sigue aproximadamente una distribución N ( 2n − 1, 1).
Teorema 12 Si X1 , X2 , . . . , Xk son k variables aleatorias independientes con
distribuciones χ2n1 , χ2n2 , . . . , χ2nk , respectivamente, entonces X = X1 +X2 +· · ·+
Xk tiene distribución χ2 con n1 + n2 + · · · + nk grados de libertad. ¡ ¢
Demostración: Sabemos que cada Xi tiene distribución γ n2i , 12 . Por el
teorema de adición de distribuciones γ, sabemos que X = X1 + X2 + · · · + Xk
tiene distribución
µ ¶ µ ¶
n1 n2 nk 1 n1 + n2 + · · · + nk 1
γ + + ··· + , =γ , = χ2(n1 +n2 +···+nk ) .
2 2 2 2 2 2

40
Ejemplo
Ejemplo 21 Dada una variable aleatoria X distribuida según una χ238 , obtener
la probabilidad P (χ238 ≤ 20).
Solución: Sabemos que la variable aleatoria
√ q
2X ≡ 2χ238

se aproxima por una distribución N ( 2 · 38 − 1, 1). Por tanto,
q √
P (χ238 ≤ 20) = P ( 2χ238 ≤ 2 · 20) =
Ãp √ √ √ !
2χ238 − 2 · 38 − 1 2 · 20 − 2 · 38 − 1
= P ≤ '
1 1
√ √

om
' P (Z ≤ 40 − 75) = P (Z ≤ −2.34) =
= FZ (−2.34) = 0.0096.

Distribución t de Student
.c
es
Definición
d
Dadas las variables aleatorias X, X1 , X2 , . . . , Xn independientes e idénticamente
en

distribuidas N (0, σ), se llama variable t de Student a la definida por


X X
T = =q P .
Y n
pr

1
n i=1 Xi2

Se dice que la variable T sigue una distribución t de Student con n grados de


.a

libertad si su función de densidad es


µ ¶−(n+1)/2
Γ( n+1
2 ) t2
w

f (t) = √ 1+ , con − ∞ < t < +∞.


nπ Γ( 12 ) n
w

Esta distribución es simétrica respecto del origen, con lo que µ = 0. Además, f


es independiente de σ, lo que será de gran importancia en las aplicaciones.
w

Propiedades
1. Función de distribución:
Z µ ¶−(n+1)/2
Γ( n+1 ) t
t2
F (t) = P (T ≤ t) = √ 2 1 1+ dt.
nπ Γ( 2 ) −∞ n

2. Esperanza:
E(T ) = 0,
por la simetría de la función de densidad.
3. Varianza:
n
V ar(T ) = .
n−2

41
Distribución F de Snedecor
Definición
Sean X1 , X2 , . . . , Xm, Y1 , Y2 , . . . , Yn m +n variables aleatorias independientes e
idénticamente distribuidas N (0, 1). Se llama variable F de Snedecor con (m, n)
grados de libertad y se denota Fm,n a la variable aleatoria definida por
1
Pm
X2
F = 1 Pni=1 2i
m

n i=1 Yi

Es decir, una variable F es un cociente de variables χ2 independientes y divididas


cada una de ellas por su número de grados de libertad.
A la distribución de probabilidad obtenida a partir de la función de densidad
(

om
Γ[(m+n)/2] ¡ m ¢ 2 ( m −1) ¡ ¢−(m+n)/2
m
x 2 1+x m si x > 0
f (x) = Γ(m/2) Γ(n/2) n n
0 si x ≤ 0

.c
se la denomina F de Snedecor con (m, n) grados de libertad.
es
Propiedades
1. Función de distribución:
(
d
Γ[(m+n)/2] ¡ m ¢ m2 R x m ¡ ¢−(m+n)/2
x( 2 −1) 1 + x m dx si x > 0
F (x) = P (X ≤ x) = Γ(m/2) Γ(n/2) n 0 n
en

0 si x ≤ 0

2. Esperanza:
pr

n
E(X) =
n−2
.a

si n > 2, pues en caso contrario la integral que resulta al calcular E(X)


es divergente.
w

3. Varianza:
n2 (2m + 2n − 4)
w

V ar(X) =
m(n − 2)2 (n − 4)
w

si n > 4, pues en caso contrario la integral que resulta al calcular V ar(X)


es divergente.
1
4. Si X es de tipo Fm,n , entonces X es de tipo Fn,m , lo que es interesante
para manejar las tablas.
5. F (1, n) y t2n son variables aleatorias con la misma distribución de prob-
abilidad.Si denotamos por Fm,n,α el valor tal que P (F > Fm,n,α ) = α,
entonces
1
Fm,n,1−α = ,
Fm,n,α
lo que también resulta útil en el manejo de tablas.

42

También podría gustarte