Teoría de Las Probabilidades - Mercedes Arriojas
Teoría de Las Probabilidades - Mercedes Arriojas
Teoría de Las Probabilidades - Mercedes Arriojas
Mercedes Arriojas
Febrero, 2004
Indice general
1. Modelos Probabilsticos. Teora Combinatoria. F
ormula de Bayes.
1.1. Introduccion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2. Breve rese
na historica. . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3. Modelo Probabilstico. . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4. Teora de Conjuntos. . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4.1. Definiciones Basicas y Notaciones. . . . . . . . . . . . . . . . .
1.4.2. Operaciones con Conjuntos. . . . . . . . . . . . . . . . . . . .
1.5. Espacio de Probabilidad. . . . . . . . . . . . . . . . . . . . . . . . . .
1.5.1. Espacios de Probabilidad. . . . . . . . . . . . . . . . . . . . .
1.6. Propiedades de la Probabilidad. . . . . . . . . . . . . . . . . . . . . .
1.7. Introduccion a la Teora Combinatoria. . . . . . . . . . . . . . . . . .
1.7.1. Muestreo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.7.2. Formulas Combinatorias. . . . . . . . . . . . . . . . . . . . . .
1.8. Problemas de Colocacion. . . . . . . . . . . . . . . . . . . . . . . . .
1.9. Probabilidad Condicional e Independencia. . . . . . . . . . . . . . . .
1.9.1. Probabilidad Condicional. . . . . . . . . . . . . . . . . . . . .
1.9.2. Resultados Basicos sobre Probabilidad Condicional. . . . . . .
5
5
6
10
14
14
15
21
22
22
29
31
37
38
47
47
51
2. Variables Aleatorias
2.1. Introduccion. . . . . . . . . . . . . . . . . . . . . . .
2.2. Funcion de Distribucion. . . . . . . . . . . . . . . . .
2.2.1. Propiedades de la Funcion de Distribucion. . .
2.3. Algunas Distribuciones Importantes. . . . . . . . . .
2.3.1. Distribuciones de Algunas V.A. Discretas. . .
2.3.2. Densidades. Distribuciones de V A. Continuas.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
61
61
65
65
72
72
82
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
95
103
107
111
116
125
.
.
.
.
.
.
4
4. Teoremas Limite
4.1. Funcion Generadora de Momentos. . . . . . . . . . . . . . . . . .
4.1.1. Calculo de Momentos. . . . . . . . . . . . . . . . . . . . .
4.2. Leyes de grandes n
umeros. . . . . . . . . . . . . . . . . . . . . . .
4.2.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.2. Desigualdad de Markov . . . . . . . . . . . . . . . . . . . .
4.2.3. Convergencia de variables aleatorias. . . . . . . . . . . . .
4.2.4. Teorema central del lmite . . . . . . . . . . . . . . . . . .
4.2.5. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3. Ley Fuerte de los Grandes N
umeros. . . . . . . . . . . . . . . . .
4.3.1. Preliminares. . . . . . . . . . . . . . . . . . . . . . . . . .
4.3.2. Ley fuerte de los grandes n
umeros para variables aleatorias
Bernoulli. . . . . . . . . . . . . . . . . . . . . . . . . . . .
131
131
134
140
140
140
146
146
147
155
155
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
de
. . 158
Captulo 1
Modelos Probabilsticos. Teora
Combinatoria. F
ormula de Bayes.
1.1.
Introducci
on.
6
Los siguientes ejemplos ilustran algunas de las situaciones que pueden plantearse
en el marco de las probabilidades.
Ejemplos 1.1 Apuestas y juegos.
1. En un casino se lanzan dos dados distintos. Un jugador apuesta a un n
umero
y gana si ese n
umero es la suma de las caras mostradas por los dados. El horoscopo
de un jugador dice que sus n
umeros de suerte son 3 y 6, pero solo puede apostar a
un n
umero. Cual es su mejor opcion?
2. El carro y las cabras (The New York Times, 1991).
Suponga que usted esta en la fase final de un concurso que se transmite por television. En este momento crucial el animador del concurso lo coloca ante tres puertas,
una de las cuales esconde un lujoso automovil nuevo. Detras de cada una de las otras
dos puertas se encuentra una linda cabra. Usted tiene que escoger una puerta y se
ganara lo que este tras ella. Usted se decide y anuncia su escogencia. Entonces el
animador abre una de las puertas que oculta a una cabra y le pregunta si le gustara
cambiar su eleccion inicial. Asumiendo que usted quiere llevarse el carro, seria un
cambio de puerta ventajoso para usted?
Nota: Observe que las respuestas a los problemas anteriores depende de que podamos
medirel chance de ganar en cada caso.
(1 es facil: hay mas chance con 6)
3. El problema de los puntos.
Suponga que dos personas estan jugando un juego en el que el ganador recibira una
cantidad a de dinero. En cada partida el ganador recibe un punto y gana el que
primero acumule n puntos. Si por alguna razon el juego debe ser suspendido antes de
que haya un ganador, como debera repartirse el premio final entre los concursantes?
1.2.
Breve rese
na hist
orica.
7
consulto en Paris con el famoso matematico y filosofo Blaise Pascal sobre algunas de
estas preguntas. Esto origino una famosa correspondencia entre Pascal y algunos de
sus amigos matematicos de la epoca, entre quienes se encontraba Pierre Fermat. De
alli surgieron comentarios y soluciones a muchos de los problemas planteados iniciandose de esa forma lo que hoy se conoce como la teora de las probabilidades. Como
hemos visto en los ejemplos anteriores, las situaciones que se estudian en probabilidades se caracterizan por la incertidumbre, esto es la imposibilidad de predecir lo que
ocurrira en la proxima realizacion del experimento aleatorio. La probabilidad da la
posibilidad de medir, en un sentido que precisaremos mas adelante, la incertidumbre inherente a un fenomeno dado. A
un cuando las aplicaciones de la teora de las
probabilidades se extendieron con rapidez a diferentes areas de la ciencia, durante
mucho tiempo se consideraban las probabilidades como una disciplina menor, que a
falta de mayor informacion permita predecir o aproximar lo que no se poda calcular.
Esta concepcion cambio en el siglo XX cuando Werner Heisemberg (premio Nobel
de fsica,1958) postulo el principio de incertidumbre seg
un el cual para partculas
muy peque
nas es imposible conocer la velocidad y la posicion exactamente: mientras
mas nos acercamos a la posicion exacta mas difusa se hace la idea de velocidad. Lo
mejor que puede hacerse es dar una respuesta probabilstica en esta situacion. Este
principio que en la actualidad es generalmente aceptado, cambio la forma en que se
pensaba acerca de las probabilidades transformandola en una disciplina independiente y fundamental en el desarrollo de la ciencia.
Uno de los aspectos mas basicos de este problema es que, al ser liberados dos prisioneros, se tienen tres resultados posibles: A y B son liberados, A y C son liberados
o B y C son liberados. Denotaremos estos resultados como {A, B}, {A, C} y {B, C}
respectivamente.
Otro aspecto importante, es que si asumimos que los presos a ser liberados se escogen al azar, es decir, sin que prive ning
un criterio de seleccion, la intuicion sugiere
que cada uno de los posibles resultados debe tener la misma posibilidad de ocurrir.
Por lo tanto, si hemos de asignar un n
umero a la posibilidad de ocurrencia de cada
resultado y si asumimos que se le asigna el n
umero 1 a un resultado que tiene un
chance de ocurrencia de 1 00 %, este n
umero debera ser el mismo para todos los
resultados, en este caso 1/3 (o un chance de 33 %). Observe que la situacion anterior
es un caso particular de la siguiente situacion mas general:
Se considera una accion que puede ser repetida cuantas veces se quiera en las mismas
condiciones y de la cual se obtiene en cada repeticion uno y solo uno de r resultados
posibles. Suponemos ademas que no tenemos control alguno sobre el resultado a producirse en cada realizacion de la accion.
Ejemplos 1.3
1.
2.
3.
4.
Lanzar un dado con seis caras distintas. Espacio muestral: = {1, 2, 3, 4, 5, 6}.
Lanzar una moneda con dos caras distintas. Espacio muestral: = {C, S}.
Seleccionar un n
umero de loteria. Espacio muestral: = {1, 2, . . . , 10000}.
Seleccionar seis n
umeros en el juego de Lotto. Espacio muestral:
= {{1 , 2 , 3 , 4 , 5 , 6 } : i {1, . . . , 50}, i 6= j i 6= j}.
9
En cada uno de los casos anteriores, a
un cuando sabemos cuales son los resultados
posibles, no podemos predecir con exactitud lo que ocurrir
a en la siguiente realizacion
del experimento. Ademas, si el dado es perfectamente simetrico, la moneda es perfecta
y la seleccion de los n
umeros de lotera se hace sin trampas estaremos de acuerdo en
que todos los resultados son igualmente plausibles cada vez que se realiza el experimento:
Al lanzar el dado la probabilidad de obtener un i es igual a 1/6, i = 1, . . . , 6.
Al lanzar la moneda la probabilidad de obtener una cara es de 1/2.
Al seleccionar un n
umero la probabilidad de obtener j e 1/10000, j = 1, . . . , 10000.
Mas adelante aprenderemos a determinar la probabilidad de una combinacion de
n
umeros en el Lotto.
Consideramos ahora la solucion de alguno de los problemas planteados en ejemplos anteriores.
El dilema de los prisioneros. Consideremos el experimento que consiste en seleccionar al azar un par de presos para ser liberados. Esto equivale a seleccionar al
azar uno de los tres pares (no ordenados) {A, B}, {A, C} o {B, C}. Como cada par
tiene probabilidad 1/3 de ser seleccionado, la probabilidad de que A sea liberado es
la probabilidad de que ocurra {A, B} o {A, C} , es decir 1/3 + 1/3 = 2/3 que es lo
que el guardia afirma. Sin embargo en este contexto no nos es posible determinar si el
hecho de que el guardia de a conocer a A la identidad de uno de los que sera liberado
afecta las posibilidades de A de salir libre. Para responder a esto debemos considerar
un experimento con un espacio muestral (resultados) diferente. Sean
O1 = {quedan libres A y B,
O2 = {quedan libres A y C,
O3 = {quedan libres B y C,
O4 = {quedan libres B y C,
el
el
el
el
guardia
guardia
guardia
guardia
informa
informa
informa
informa
que
que
que
que
B
C
B
C
sera
sera
sera
sera
liberado}
liberado}
liberado}
liberado}
10
la opcion de cambiar de puerta.
Paso 3. El participante hace su eleccion definitiva.
Un resultado de este experimento puede representarse como una terna (elecci
on
1, cabra, elecci
on 2) y dependiendo de la eleccion final del participante se tienen dos
situaciones posibles: o bien el concursante cambia su eleccion inicial o la ratifica. Lo
que queremos es determinar si estas dos situaciones diferentes le dan al participante
diferentes posibilidades de ganar el carro. Dado que el participante no tiene ninguna
idea de la ubicacion del carro, lo u
nico que podemos afirmar es que las tres puertas
tienen la misma posibilidad de ser seleccionadas en la primera eleccion, esto es 1/3.
Situaci
on 1: se cambia de puerta. En este caso el espacio muestral asociado al
experimento esta dado por:
= {(1, 2, 3), (1, 3, 2), (2, 3, 1), (3, 2, 1)}.
El participante gana el carro en el evento {(2, 3, 1), (3, 2, 1)} y como {(2, 3, 1)} es el
evento de elegir la puerta 2 y {(3, 2, 1)} es el evento de elegir la puerta 3, se tiene la
posibilidad de ganar el carro es igual a 1/3 + 1/3 = 2/3.
Situaci
on 2: se ratifica la elecci
on inicial. En este caso el espacio muestral asociado
al experimento esta dado por:
= {(1, 2, 1), (1, 3, 1), (2, 3, 2), (3, 2, 3)}.
El participante gana el carro si ocurre {(1, 2, 1), (1, 3, 1)} que es el evento de elegir la
puerta 1. Por lo tanto en este caso la posibilidad de ganar es de 1/3.
1.3.
Modelo Probabilstico.
2. MODELO
MATEMATICO
3. CONCLUSIONES
11
posibles sin que se pueda predecir con exactitud el resultado que se obtendra en la
siguiente repeticion.
(II) El espacio muestral asociado a un experimento aleatorio es el conjunto de los posibles resultados del experimento.
Un espacio muestral se dice discreto si posee una cantidad finita o numerablemente
infinita de elementos. En caso contrario se dice que el espacio muestral es continuo.
Ejemplos 1.4
1. Se lanzan dos dados, uno rojo y uno verde, simultaneamente y se anota el resultado. El espacio muestral asociado a este experimento es el conjunto:
n
1
(1,1)
(2,1)
(3,1)
(4,1)
(5,1)
(6,1)
2
(1,2)
(2,2)
(3,2)
(4,2)
(5,2)
(6,2)
3
(1,3)
(2,3)
(3,3)
(4,3)
(5,3)
(6,3)
4
(1,4)
(2,4)
(3,4)
(4,4)
(5,4)
(6,4)
5
(1,5)
(2,5)
(3,5)
(4,5)
(5,5)
(6,5)
6
(1,6)
(2,6)
(3,6)
(4,6)
(5,6)
(6,6)
12
5. Se escoge un punto al azar lanzando un dardo a un disco de un metro. El espacio muestral es en este caso el conjunto de puntos del plano que se encuentran
dentro de la circunferencia de radio 1, es decir
= {(x, y) : x2 + y 2 1}.
Comentarios. El espacio muestral, como abstraccion de una situacion real, no es
u
nico ya que de depende de lo que la persona que realiza el experimento considere
importante. Por ejemplo, al lanzar dos dados (ej. 6) se podra considerar el caso en
que uno de los dados cae fuera de nuestro rango visual y decidir que en este caso
su valor no puede ser registrado. Entonces habra que incluir en el espacio muestral
elementos de la forma: (b, 1), . . . y (1, b), . . .; con lo que se obtiene un espacio muestral
diferente asociado al mismo experimento.
(III) Un evento asociado a un experimento es un subconjunto del espacio muestral, esto es un conjunto de resultados.
Ejemplos 1.5
1. Se lanzan dos dados distintos y se apuesta a que la suma es tres; esto es, se
apuesta al evento A = {(1, 2), (2, 1)}. El evento la suma es 5 esta dado por B =
{(1, 4), (2, 3), (3, 2), (4, 1)}. El evento el dado rojo cae en 1 y el verde entre 3 y 6 es
el conjunto C = {(1, 3), (1, 4), (1, 5), (1, 6)}.
2. Se lanza una moneda dos veces. El evento se obtiene al menos una cara es el
conjunto D = {(c, s), (s, c), (c, c)}.
Comentarios.
Al realizar un experimento decimos que un evento A ocurre si el resultado obtenido
pertenece a A.
Los resultados individuales de un experimento aleatorio son llamados tambien eventos simples.
Cuando se tenga una cantidad finita de resultados posibles, cualquier subconjunto
del espacio muestral se considerara un evento. Si el espacio muestral es infinito esto
no sera necesariamente cierto, por razones que seran expuestas mas adelante.
(IV) Definici
on preliminar. Dado un espacio muestral correspondiente a un
experimento aleatorio, una probabilidad (tambien denominada distribuci
on de
probabilidad, medida de probabilidad o funci
on de probabilidad ) es una
funcion que asigna a cada evento A en un n
umero P (A) [0, 1] y que satisface
ciertas condiciones que seran detalladas mas adelante. La probabilidad de un evento
se interpreta como una medida de la plausibilidad de que dicho evento ocurra. Antes
13
de formular la definicion precisa de probabilidad, discutiremos algunas nociones intuitivas que han sido utilizadas para tratar de definir esta medida.
Proporci
on Relativa.
Suponga que se tiene una caja de mangos y se sabe que hay algunos mangos podridos en ella. A efectos de fijar un valor por la caja, resulta mas razonable tomar en
cuenta la proporcion relativa de frutas podridas que su n
umero absoluto. Esto es, si
sabemos que hay 35 mangos podridos, la importancia de esta cantidad ciertamente
dependera del n
umero total de mangos en la caja: si hay solo 50 mangos una gran
cantidad del total no sirve mientras que si hay 500 mangos 35 malos es una cantidad
menos significativa. Esto es de importancia si consideramos el experimento aleatorio
consistente en sacar un mango al azar de la caja y el evento A =el mango esta podrido.
Dado que el espacio muestral asociado a este experimento es el conjunto de todos los
mangos y que cualquier mango puede ser seleccionado por igual, una medida de la
plausibilidad de este evento podra estar dada por la proporcion de mangos podridos:
P (A) = |A|/||, donde las barras indican el n
umero de elementos del conjunto. Esta
nocion puede extenderse a espacios muestrales infinitos. Si consideramos el espacio
muestral del ejemplo 14, y para un subconjunto A de definimos |A| =
area de A
podemos entonces definir la probabilidad de A como la razon P (A) = |A|/||.
Frecuencia Relativa.
Suponga que un experimento con espacio muestral se realiza repetidamente en
identicas condiciones. Para cada evento A se define n(A) como el n
umero de veces
que el evento A ocurre en las n primeras repeticiones. Entonces se puede definir
n(A)
.
n
Aqui se define la probabilidad de un evento como el limite de los promedios de las
veces que el evento ocurre, es decir, el limite de las frecuencias relativas del evento.
Esta definicion tiene varios inconvenientes. En primer lugar no podemos garantizar
la existencia del lmite. En segundo lugar es posible que sucesiones de frecuencias
correspondientes a distintas sucesiones de realizaciones del experimento tengan limites
diferentes, con lo cual la definicion no tendra sentido. Si el espacio muestral es finito
y tiene m elementos, y todos los resultados son igualmente probables, se tiene que
para n grande cada uno de los m resultados ocurrira aproximadamente n/m veces.
Si A es un evento que posee a elementos entonces en n realizaciones del experimento
veces aproximadamente. Entonces la frecuencia relativa de A
A ocurrira n(A) = an
m
satisface
a
|A|
n(A)
=
=
= P (A)
n
m
||
P (A) = n
lm
14
si consideramos la proporcion relativa como medida del evento A. Es decir, en los
casos en que todos los resultados tienen la misma probabilidad la frecuencia relativa
coincide con la proporcion relativa.
Dado que la probabilidad es una funcion de conjuntos, haremos un repaso de las
nociones basicas de teora de conjuntos que seran esenciales en el resto del curso.
1.4.
Teora de Conjuntos.
1.4.1.
Definiciones B
asicas y Notaciones.
Un conjunto es una coleccion de objetos determinada por una regla que especifica
exactamente que objetos pertenecen a la coleccion.
Los objetos pertenecientes a un conjunto se denominan elementos o puntos del
conjunto.
Notaci
on.
Se utilizaran letras may
usculas, latinas o griegas, para denotar a los conjuntos y
min
usculas para denotar a los elementos. En particular denotamos por R al conjunto
de los n
umeros reales y por N al conjunto de los n
umeros naturales.
Dado un conjunto S, a S se lee a pertenece a S y a
/ S se lee a no pertenece
a S.
El simbolo denota al conjunto vacio (conjunto que no tiene elementos).
Si E y F son conjuntos decimos que E est
a contenido en F o que E es
un subconjunto de F , denotado E F , si todo elemento de E es tambien elemento de F . Si E F y E y F no son iguales, se dice que E est
a estrictamente
contenido en F , lo que se denota E F . Dos conjuntos E y F son iguales si
poseen exactamente los mismos elementos; esto ocurre si y solamente si E F y
F E.
Los conjuntos pueden representarse de varias maneras:
Describiendo verbalmente la regla que define a sus elementos: el conjunto de los
estudiantes de matematica en la UCV.
Dando una lista de todos los elementos que pertenecen al conjunto: A = {1, 3, 5} =
el conjunto de los impares entre 1 y 5.
Escribiendo de manera simbolica la propiedad que caracteriza a sus elementos:
A = {a N : a impar , 1 a 5}. En general A = {a S : (a)}.
Nota. Un conjunto E se dice numerablemente infinito si se puede establecer
una biyeccion entre E y el conjunto de los n
umeros naturales N. Un conjunto es
numerable o contable si es finito o numerablemente infinito.
15
1.4.2.
Sea X un conjunto (no vacio) de elementos. En lo que sigue el conjunto X sera denominado espacio y sus elementos puntos. Dado un subconjunto E de X, complemento de E en X se define como
E c = {x X : x
/ E}.
Dados los conjuntos E y F , la uni
on de E y F es el conjunto
E F = {x X : x E o x F }.
La intersecci
on de E y F es el conjunto
E F = {x : x E y x F }.
La diferencia de E yF es el conjunto
E \ F = {x E : x
/ F } = E F c.
Cuando F E se usa la notacion E \ F = E F . Note que Ac = X A. Finalmente,
la diferencia sim
etrica de E y F se define como
E4F = (E \ F ) (F \ E) = (E F ) \ (E F ).
Dos conjuntos E y F son disjuntos si no tienen elementos en com
un, es decir su
interseccion es vacia: A B = . Por ejemplo si es el espacio muestral correspondiente al lanzamiento de dos dados, son conjuntos disjuntos los eventos: A = la suma
es 8 y B = al menos un uno.
Propiedades.
A A = A = A A.
(Ac )c = A.
Leyes Distributivas:
i) (A B) C = (A C) (B C): si x (A B) C entonces x A B y
x C; por lo tanto x A o x B y x C, de donde deducimos que x A C o
x B C, lo que implica que (A B) C (A C) (B C). Reciprocamente si
x (A C) (B C), entonces x ciertamente pertenece a C y ademas vemos que
x A o x B. Lo que demuestra la otra contencion.
ii) (A B) C = (A C) (B C). Demuestrelo.
Leyes de Morgan:
16
i) (A B)c = Ac B c : si x (A B)c entonces x
/ A B lo que implica que x
/A
c
c
c
c
yx
/ B es decir x A B . Reciprocamente si x A B entonces como x
/Ay
x
/ B se tiene que x (A B)c .
ii) (A B)c = Ac B c . Demuestre esta igualdad a partir de la anterior.
La diferencia de conjuntos no es ni asociativa ni conmutativa; es decir, en general
(A \ B) \ C 6= A \ (B \ C) y A \ B 6= B \ A. De un ejemplo.
Notaci
on. La coleccion de los E se denota E
o
I
.
S
Definimos la uni
on de una colecci
on de conjuntos, denotada por I E , como
el conjunto consistente de los elementos que pertenecen a E para al menos un I.
De manera analoga, la intersecci
on de una colecci
on de conjuntos se denota
T
E
y
se
define
como
el
conjunto
conformado
por
los
elementos que pertenecen a
I
E para todo I.
Cuando el conjunto de ndices I es finito, podemos decir que I = {1, 2, . . . , n} para
alg
un n N. En este caso la union y la interseccion se escriben como:
n
[
Ei = {x : x Ei para alg
un i {1, . . . , n}}
i=1
n
\
i=1
Ei = {x : x Ei para alg
un i N}
i=1
i=1
[
\ [
(F E ),
E =
F
I
17
F
[ \
E =
(F E ).
E c ,
E c .
Funci
on Indicatrz.
Dado un conjunto A X la funci
on indicatrz de A (tambien llamada funci
on
indicadora o caracterstica de A) se define de la siguiente manera:
IA : X 7 {0, 1},
IA () =
1 si A
0 si
/A
Notaci
on. Dados dos n
umeros reales a y b:
el mnimo entre a y b se denota por a b.
el maximo entre a y b se denota por a b.
La funcion indicatrz satisface las siguientes propiedades:
IAB () = IA () IB () = IA ()IB ().
IAB () = IA () IB ().
I = IA () + IAc ().
(1.1)
18
Ejercicios 1.1
1. Un dado es lanzado y, luego, se lanza una moneda dos veces. (a) Describa un
espacio muestral S que contenga todos los resultados de este experimento. (b) Asuma
que todos los resultados en (a) tienen la misma probabilidad. Encuentre la probabilidad de los siguientes eventos: i) se obtiene un seis y al menos una cara; ii) se obtiene
un n
umero par y una cara en el segundo lanzamiento de la moneda; iii) se obtiene al
menos una cara y un n
umero menor que 5.
2. Variaci
on del problema del carro y la cabra. En esta oportunidad hay cuatro puertas: tres cabras y un carro. Usted escoge una puerta al azar y entonces el animador
abre una de las puertas que oculta una cabra. Suponga que usted se cambia a una de
las otras puertas (escogiendola al azar). Cual es la probabilidad ahora de ganar el
carro? Cual es la probabilidad de ganar el carro si usted no cambia de puerta?
3. Suponga que la alarma de su reloj suena en alg
un momento entre la las 6 y las 7
a.m. Describa un espacio muestral con cada uno de los posibles instantes de tiempo
en que la alarma puede sonar. Es el espacio continuo o discreto?
4. En el ejercicio anterior, suponga que la alarma solo puede sonar en intervalos
de 5 minutos: 6 am, 6:05 am, 6:10 am, etc. Describa el espacio muestral con cada
posible instante en que la alarma suena. Explique porque es este espacio discreto.
5. Asuma que en el espacio discreto del ejercicio 4 todos los resultados son igualmente
probables (distribucion uniforme) y que usted siempre sue
na lo mismo, si esta dormido, entre las 6:18 y las 6:43 am. Suponga que esta dormido cuando la alarma lo
despierta un dia. Encuentre la probabilidad de que la alarma interrumpa su sue
no.
6. Describa el espacio muestral asociado a cada uno de los experimentos siguientes:
6.1. Se mide el tiempo de vida de un transistor cada hora.
6.2. Se sacan aleatoriamente 3 bolas de una bolsa que contiene 3 bolas rojas, 2 blancas
y 4 negras.
6.3. Una caja contiene 3 metras, 1 roja, 1 verde y una azul. Se toma una metra de la
caja, se reemplaza la metra en la caja y luego se toma otra metra.
6.4. Considere el caso en que el experimento de 6.3. se realiza sacando la segunda
metra sin reemplazar la primera.
6.5. Se lanza un dado continuamente hasta que aparezca un 6.
7. Demuestre que
(a) E F E E F .
(b) Si E F , entonces F c E c .
(c) F = (F E) (F E c ).
19
(d) E F = E (F \ E).
(e) F = (E F ) (E c F ) (E F c ).
8. Demuestre las leyes distributivas y las leyes de Morgan para familias infinitas de
conjuntos.
9. Demuestre que si dos conjuntos tienen complementos identicos ellos son iguales.
10. Considere los conjuntos: A =artculos de vestir, B =artculos de bajo costo y
C =artculos de buena calidad. Describa, verbalmente, lo que simbolizan los conjuntos: a) A (B C); b) (A B) C; c) A (B C).
11. Demuestre que (A B) C 6= A (B C).
12. Demuestre que A B si y solo si A B = A o A B = B.
13. Demuestre que A y B son disjuntos si y solo si A B = A o A B = A4B.
14. Demuestre que (A B) (C D) (A C) (B D).
15. Considere la operaci
on /definida de la siguiente forma: A/B = Ac B. Demuestre
que: a) (A/B) (B/C) A/C. b) (A/B) (A/C) = A/(B C). c)(A/B) (B/A) =
(A4B)c .
16. Exprese las operaciones de union, intersecci
on y complementaci
on de conjuntos en terminos de diferencia de conjuntos.
17. Demuestre que A B si y solo si IA IB ; y que A B = si y solo si
IA IB = 0.
18. Si E, F y G son conjuntos dados, demuestre que E (F G) = (E F )(E G).
19. Demuestre que E F = (E4F )4(E F ) y que E F = E4(E F ).
20. Se lanzan dos dados. Sea E el evento de que la suma sea impar; F el evento
de que al menos uno de los dados cae en 1; y G el evento de que la suma es 5. Describa los eventos E F , E F , F G, E F c y E F G.
21. Jugadores A, B y C lanzan una moneda por turnos, primero lanza A, despues B y
por u
ltimo C. Gana el primero en obtener una cara. De una representaci
on del espacio
muestral y defina los siguientes eventos: i) A = A gana; ii) B = B gana; iii) (AB)c .
20
22. Una caja tiene 2 bolas blancas, 1 negra y 1 roja. Se saca una bola, se anota
el color y se introducen en la caja dos bolas cada una de uno de los colores que queda
en la caja. Luego se saca una segunda bola.
(a) Describa el espacio muestral asociado a este experimento.
(b) Describa los eventos A = al menos una bola blanca y B = a lo sumo una bola
blanca.
23. Se lanzan dos dados distintos. Halle los eventos E = la suma es no menor que 9,
F = la suma es no menor a 4, G = al menos un dado cae en 3, H = la suma es par,
E F , F H, F \ G, G \ H y E G H.
24. Se tienen dos monedas perfectamente simetricas. Se asigna a cara el valor 1
y a sello el valor 2. Se lanzan las monedas simultaneamente y se registra la suma de
las caras mostradas.
(a) Describa el espacio muestral asociado a este experimento.
(b) Describa el evento ninguna cara y un n
umero par.
25. Considere el experimento que consiste en colocar 3 bolas etiquetadas como A,
B y C en tres celdas enumeradas como 1, 2 y 3.
(a) Halle el espacio muestral asociado a este experimento.
(b) Halle los eventos: Vi = la celda i esta vacia i {1, 2, 3}; Ui = la celda i contiene
una bola.
21
1.5.
Espacio de Probabilidad.
c c
n=1 An = (n=1 An ) ,
22
1.5.1.
Espacios de Probabilidad.
Definici
on 1.2 Sea un espacio muestral y A una familia de eventos de . Una
medida de probabilidad o probabilidad sobre , es una funcion P definida sobre
A que satisface los siguientes axiomas:
p1. P es no negativa, es decir para todo evento A A se cumple que P (A) 0.
p2. P es contablemente aditiva o -aditiva; es decir, si {An }n1 A son
disjuntos dos a dos, lo que significa que Ai Aj = para cada i 6= j, entonces
P
P (
i=1 Ai ) =
i=1 P (Ai ).
p3. El evento cierto tiene probabilidad 1: P () = 1.
La terna (, A, P ) se denomina un espacio de probabilidad, el valor P (A) se
denomina probabilidad de A.
As como el espacio muestral se define de acuerdo con la situacion que se desea
modelar, la asignacion de probabilidades a los eventos considerados sobre , esto es,
la definicion de una medida de probabilidad para un problema dado, tambien depende
de la situacion particular estudiada.
1.6.
Propiedades de la Probabilidad.
P (Ai ) = P () +
i=1
P (Ai ),
i=2
k
X
P (Ai ).
i=1
23
24
ya que Aj Acj1 Ai1 . Por otra parte es claro que cada Bi es un evento y que
n=1 An = n=1 Bn .
=
=
P (
n=1 Bn )
lm {P (A1 ) +
X
i=1
n
X
P (Bi ) =
(P (Ai ) P (Ai1 ))
i=1
i=2
pviii. Si {An }n1 es una sucesion decreciente de eventos, es decir que satisface
A1 A2 A3 . . . ,
entonces,
P (
m P (An ).
n=1 An ) = l
n
{Acn }
c c
c
P (
n=1 An ) = P ((n=1 An ) ) = 1 P (n=1 An )
= 1 n
lm P (Acn ) = 1 n
lm (1 P (An )) = n
lm P (An ).
pix. Dados los eventos A, B y C se cumple que
P (A B C) = P (A) + P (B) + P (C) P (A B) P (A C) P (B C)
+ P (A B C).
Se aplica pvi reiteradamente.
px. Sea {Ai }i{1,...,k} A una familia de eventos no necesariamente disjunta. Entonces
P (ki=1 Ai ) =
k
X
i=1
P (Ai )
k
X
i<j=2
Esta propiedad se puede demostrarse por induccion sobre k, haciendo uso de pvi.
25
Ejemplos 1.6
1. Lanzamiento de dos dados distintos. El espacio muestral correspondiente a este
experimento fue descrito en el ejemplo 1.4.1. Suponiendo que los dados son perfectamente simetricos, tenemos que todos los resultados son igualmente probables y podemos considerar A = (A). Asi que definiendo para un evento A :
P (A) =
|A|
||
Pn
i=1
pi = 1.
i
, i = 0, 1, . . .
i!
X
i=1
P (i ) = p
(1 p)i1 = 1,
i=1
26
Ejercicios 1.2
Nota. En algunos casos se usara la notacion A B = AB.
1. En un juego de cartas sea k {1, 2, 3, 4}. Sea Nk el evento el jugador sentado
hacia el norte tiene al menos k ases. Sean Sk , Ek y Ok eventos analogos para sur, este
y oeste. Diga que n
umero de ases tiene el jugador sentado hacia el oeste en cada uno
de los siguientes eventos:
a) O1c ; b) N2 S2 ; c) N1c S1c E1c ; d) O2 O3 ; e) N1 S1 E1 O1 ; f ) N3 O1 ; g) (N2 S2 )E2 .
2. En el ejemplo anterior verifique que: a) S3 S2 ; b) S3 O2 = ; c) N2 S1 E1 O1 = ;
d) N2 S2 O1c ; e)(N2 S2 )O3 = ; f ) O4 = N1c S1c E1c .
3. Considere el experimento que consiste en colocar 3 bolas etiquetadas como A, B
y C en tres celdas enumeradas como 1, 2 y 3. Considere los eventos: Vi = la celda
i esta vacia; Ui = la celda i contiene una bola; Di = la celda i contiene dos bolas y
Ti = la celda i contiene tres bolas para i {1, 2, 3}.
(a) Demuestre que: (i) U1 U2 U3 . (ii) V1 V2 = T3 . (iii) D1 D2 = .
(iv) T1 T2 . (v) U2 D1 V3 \ D2 U1 .
(b) Cuantos elementos contiene U1 U2 ?
4. Sean E, F y G tres eventos. Encuentre expresiones para los eventos siguientes
en terminos de E, F y G:
(a) solo E ocurre; (b) E y G ambos ocurren pero no F;
(c) al menos uno de los eventos ocurre; (d) al menos dos de los eventos ocurren;
(e) los tres eventos ocurren; (f ) ninguno de los eventos ocurre;
(g) a lo sumo uno de ellos ocurre; (h) a lo sumo dos de los eventos ocurre
(i) exactamente dos de ellos ocurren; (j) a lo sumo tres de ellos ocurren.
5. Se tiene un cesto de manzanas. Supongamos que cada manzana cuesta una
moneda, mientras que las manzanas podridas son gratis. Denotemos por el conjunto de todas las manzanas, por R el conjunto de las manzanas podridas y sea S un
conjunto cualquiera sacado del cesto. Definamos
Q(S) =
|S \ R|
, |A| = # elementos en A.
| R|
Entonces Q es el valor relativo de S con respecto al valor del cesto. Demuestre que Q
es una medida de probabilidad en .
6. Supongamos que las tierras de una hacienda H de forma cuadrada se encuentran divididas en tres franjas de igual superficie A, B y C; y que los valores de las
respectivas unidades de terreno estan en la relaci
on 1:3:2. El valor relativo de una
27
parcela medible S de esa hacienda con respecto al valor total del terreno es:
V (S) =
28
14. Los siguientes datos fueron suministrados por un estudio de un grupo de 1000
suscriptores a una revista. En lo relativo a sexo, estado civil y educaci
on habian: 312
hombres, 470 personas casadas, 525 graduados universitarios, 42 hombres graduados
universitarios, 147 graduados universitarios casados, 87 hombres casados y 25 hombres casados graduados universitarios. Demuestre que los n
umeros reportados en el
estudio son incorrectos. Sugerencia: Use el ejercicio 1.
15. Cual es la probabilidad de que la suma de dos dados distintos y perfectos sea
6 o menos de 6?
16. Halle la probabilidad de cada uno de los eventos se
nalados en el ejercicio 1.1.20,
asumiendo que ambos dados son perfectos.
17. Sea = {1 , 2 , . . .} un espacio muestral discreto. En cada uno de los casos
siguientes, diga si (, P(), P ) es un espacio de probabilidad. En caso negativo, diga
si se puede modificar P para que la respuesta sea afirmativa. Diga como se define
P (A) para A P(). Justifique sus respuestas.
1
(a) P ({n }) = n(n+1)
.
2
(b) P ({n }) = 3n1 .
2
(c) P ({n }) = (2n1)(2n+1)
.
18. Sea = {1 , 2 , . . . , m } un espacio muestral. Sea p (0, 1) y q = 1 p. Para
una constante c y 1 n m defina P ({n }) = cq n1 p. Determine el valor de c para
que P sea una medida de probabilidad.
29
1.7.
Introducci
on a la Teora Combinatoria.
Como se ha visto para los espacios muestrales finitos, el calculo de las probabilidades
requiere, en muchos casos, el determinar el n
umero de elementos del espacio muestral
y del n
umero de elementos en los eventos considerados. Es por esto importante desarrollar tecnicas para contar los elementos de un conjunto dado en los casos en que,
debido al n
umero de posibles resultados y/o a la naturaleza del experimento, no sea
posible, o practico, elaborar una lista con todos los elementos del espacio muestral.
En estos casos se necesitan tecnicas combinatorias.
Ejemplos 1.7
1. Se lanzan seis dados distintos. a)De cuantas maneras distintas pueden salir sus
caras? b) De cuantas maneras puede suceder que todos muestren caras distintas?
2. En una peque
na comunidad hay 10 hombres cada uno de los cuales tiene 3 hijos.
Se elegir
a un hombre y a uno de sus hijos como el padre y el hijo del a
no, cuantas
parejas de padre-hijo son posibles?
3. Se forma una comisi
on de estudiantes de ciencias que se distribuyen por carreras
de la siguiente manera 3 de biologa, 4 de computaci
on, 5 de fisica y 2 de matematica.
Se quiere formar una subcomisi
on de cuatro estudiantes, consistente de 1 estudiante
de cada carrera. Cuantas subcomisiones diferentes son posibles?
4. Cuantas funciones f : {x1 , x2 , . . . , xn } 7 {0, 1} pueden ser definidas ?
5. Cuantas placas diferentes de 7 car
acteres se pueden formar si los primeros 3
car
acteres son letras y los u
ltimos 4 son n
umeros?
6. Cuantas iniciales diferentes pueden formarse con dos letras del alfabeto si las
letras no pueden ser repetidas?
7. En un juego del Loto se gana con seis aciertos escogidos de un total de 54 n
umeros.
Cu
antas posibles maneras hay de seleccionar una lista de n
umeros ganadores?
8. Un jurado internacional consta de 2 chilenos, 1 peruanos, 3 venezolanos y 2 colombianos. Se elige una comisi
on conformada por un representante de cada pas. Cuantas
posibles comisiones hay?
A continuacion enunciamos una de las reglas fundamentales de conteo.
30
Principio B
asico de Conteo.
Se realiza una seleccion m
ultiple de r componentes tales que: la primera componente se selecciona de un conjunto de m1 elementos; la segunda se selecciona de un
conjunto de m2 elementos y asi sucesivamente. Entonces el n
umero total de posibles
selecciones (o resultados) es igual a
m1 m2 . . . mr .
Nota. Observe que la situacion anterior puede tambien presentarse como la realizacion de r experimentos con m1 , m2 , . . . mr resultados posibles, respectivamente.
Ejemplos 1.8
1. Seis dados. Al lanzar seis dados distintos se tienen a) || = 666666 = 66
resultados posibles.
b) El n
umero de resultados en que todos los dados muestran caras distintas es igual
a 6,5,4,3,2 = 6!.
NOTA. Si A es el evento todos los dados presentan caras distintas, entonces, suponiendo que todos los dados son perfectamente simetricos y que por lo tanto todos los resultados son igualmente probables, se tiene que
P (A) =
|A|
6!
= 6
||
6
2. Padre-hijo del a
no. Dado que el padre puede escogerse de 10 posibles maneras y
para cada elecci
on del padre hay 3 posibles elecciones de hijo se tiene un total de
10 3 = 30 parejas posibles.
3. Subcomisiones de Estudiantes. Considerando nuevamente la selecci
on de la subcomisi
on como un resultado de la realizaci
on de 4 experimentos (o selecciones) se
tiene que hay 3 4 5 2 = 120 posibles subcomisiones.
4. Funciones. Puesto que f (xi ) tiene que ser 0 o 1 para cada i = 1, . . . , n se tiene que
hay 2n funciones posibles.
5. Placas de auto. Asumiendo que las letras y los n
umeros pueden repetirse en una
misma placa, tendremos resultados de la forma (l1 , l2 , l3 , n1 , n2 , n3 , n4 ) y || = 27
27 10 10 10 10 = 7,290,000.
6. Iniciales. Cuantas iniciales diferentes pueden formarse con dos letras del alfabeto si las letras no pueden ser repetidas?
Hay 27 26 = 702 iniciales posibles.
31
1.7.1.
Muestreo.
Una muestra
o muestra aleatoria es una porcion de determinada poblacion
que se selecciona al azar y se analiza para sacar conclusiones acerca de toda la
poblacion. Esto es particularmente u
til cuando, debido a la gran cantidad de individuos en la poblacion, resulta poco practico o imposible hacer el analisis considerando
a todos los miembros de la misma, como ocurre por ejemplo al realizar una encuesta
de opinion a la poblacion o sondear un lote de la produccion de una fabrica para
controlar la calidad.
El proceso de seleccion de una muestra se denomina muestreo. Para estudiar los
problemas basicos de combinatoria, describiremos los metodos basicos de muestreo.
En lo que sigue consideramos la siguiente situacion. Una urna contiene m bolas enumeradas, de 1 a m, todas diferentes mientras no se especifique lo contrario. De la
urna se extraen n bolas. Esto puede hacerse de diferentes maneras, dependiendo de
si cada bola extraida se repone o no en la urna (muestreo con o sin reposicion) y de
si la extraccion se realiza o no en cierto orden (muestreo ordenado o sin orden).
I) Muestreo Ordenado con Reposici
on
o Variaciones con Repetici
on. Se
extraen sucesivamente n bolas, devolviendo a la urna cada bola antes de la siguiente
extraccion. Se anotan en orden los n
umeros de las bolas extraidas: (a1 , a2 , . . . , an )
donde aj {1, . . . , m} para j = 1, . . . , n. Utilizando el principio basico de conteo
se obtienen m m . . . m = mn posibles resultados, ya que cada bola extraida
podra seleccionarse de m maneras posibles.
Ejemplos 1.9
1. Se lanzan seis dados distintos. Los resultados se pueden expresar como sextuplas
(c1 , c2 , c3 , c4 , c5 , c6 ) donde ci representa el n
umero obtenido en el i-esimo dado. Como
se observo antes || = 66 .
2. Placas de auto. Asumiendo que las letras y los n
umeros pueden repetirse en una
misma placa, tendremos resultados de la forma (l1 , l2 , l3 , n1 , n2 , n3 , n4 ) y || = 27
27 27 10 10 10 10 = 196,830,000.
3. Iniciales. Cu
antas iniciales diferentes pueden formarse con dos o tres letras del
alfabeto si las letras pueden ser repetidas?
(27 27) + (27 27 27) = 20,412.
32
II) Muesteo Ordenado sin Reposici
on
o Variaciones.
a) n < m. Se extraen de la urna n bolas en forma sucesiva, sin reponer en la urna las
bolas extraidas. Se anotan en orden los n
umeros de las bolas extraidas: (a1 , a2 , . . . , an )
se pueden elegir de
m (m 1) (m 2) . . . (m (n 1)) =
m!
= Vnm
(m n)!
33
posibles hay?
Se tienen 4! 3! 2! 1! maneras de arreglar los libros de forma tal que los de
matematica se encuentren primero, luego los de qumica, despues los de historia y por
u
ltimo el de literatura. Tambien las asignaturas se pueden ordenar de 4!
maneras y para cada ordenamiento de las asignaturas se pueden tener 4! 3! 2! 1!
ordenamientos de los libros. Por lo tanto hay 4! 4! 3! 2! 1! maneras de colocar
los libros en el estante.
III) Muestreo sin Orden y sin Reposici
on.
a) Combinaciones. De una urna que contiene m bolas se extraen n bolas (n m)
sin reponerlas en la urna y sin tomar en cuenta el orden de extraccion. Cada uno de
los resultados de este muestreo se denomina combinaci
on.
Dado un conjunto de m elementos veremos de cuantas maneras pueden combinarse
estos elementos en grupos de n. Por una parte, se tiene que cada muestra (combinacion) de tama
no n produce n! muestras ordenadas, es decir n! variaciones de m
elementos en grupos de n; ademas toda muestra ordenada (de n elementos) es una
de las n! ordenaciones obtenidas permutando un grupo de n elementos. Es decir, las
variaciones se obtienen al considerar todas las permutaciones posibles de las combinaciones. Entonces, se tiene que si x es el n
umero de combinaciones de m elementos
en grupos de n,
m!
Vnm =
= n!x;
(m n)!
por lo que
x=
m
m!
= Cnm =
,
n
n!(m n)!
donde
Cnm = # de subconjuntos de n elementos extraidos de un conjunto de m elementos.
Ejemplos 1.12
1. De un grupo de 20 personas se forma una comisi
on de 3. Cuantas comisiones
diferentes pueden formarse?
Hay C320 =
20
3
20!
3!(203)!
201918
321
54
6
54 53 52 51 50 49 48!
= 25,827,165
6! 48!
34
posibles juegos.
3. De un grupo de 5 hombres y 7 mujeres, a) cuantos posibles comites consistentes
de 2 hombres y 3 mujeres pueden formarse? b) Cuantos si dos de las mujeres estan
peleadas y se rehusan a participar juntas
en el mismo comite?
7
5
i. Las mujeres pueden elegirse de
maneras y los hombres de
maneras, por
3
2
lo tanto hay
7 5
7,6,5 5,4
=
= 350
3
2
3,2,1 2,1
ii. Si dos de las mujeres no quieren trabajar juntas hay
en que ninguna de las mujeres peleadas participa y
2
1
5
2
5
3
grupos de 3 mujeres
grupos de 3 mujeres en
= 300
0
posibles comites.
Observe que otra manera de encontrar el n
umero de comites en este caso es restando
del resultado en
la parte i el n
umero de comites en que participan las dos mujeres,
h2 5 i 5
que es igual a
= 50.
2
m
m!
=
m1 ,m2 ,...,mr
m1 ! m2 ! . . . mr !
disposiciones distinguibles.
Ejemplos 1.13
1. En un torneo de ajedrez hay 10 participantes de los cuales 4 son rusos, 3 estadounidenses, 2 britanicos y 1 brasile
no. Si el resultado del torneo solo muestra la
35
nacionalidad del jugador en el orden en que se coloco, cuantos posibles resultados
hay?
Como no se distingue entre los participantes de una misma nacionalidad, se tienen
10!
= 12,600
4! 3! 2!
posibles ordenamientos.
2. Cuantas se
nales diferentes pueden formarse con 9 banderas de las cuales 5 son
blancas, 2 rojas
y 2 azules si banderas de un mismo color son identicas?
9
9!
Hay
= 5!2!2!
= 756 se
nales diferentes.
5,2,2
6
3,2
6!
3!2!
= 60 arreglos posibles.
A
A
A
A
A
2
2
2
2
2
3
3
3
3
3
4
4
4
4
4
5
5
5
5
5
6
6
6
6
6
7
7
7
7
7
8
8
8
8
8
9
9
9
9
9
10
10
10
10
10
J
J
J
J
J
Q
Q
Q
Q
Q
K
K
K
K
K
Determine el n
umero de manos de cartas con las caracteristicas especificadas y calcule
la probabilidad de obtener los juegos correspondientes asumiendo que el mazo de cartas
se barajea concienzudamente y que no se hace trampa al distribuirlas:
a) = Posibles manos de pocker. Como una mano consta de 5 cartas y el orden
52
posibles manos.
en que las cartas aparecen no es importante, se tienen
5
b) A = 5 cartas de una pinta. Hay 4 pintas con 13 denominaciones (valores)
13
diferentes. Entonces para cada pinta se tienen
maneras de seleccionar 5 cartas
5
de esa pinta. Por consiguiente, el n
umero total de manos es en este caso
|A| = 4
13
5
P (A) =
13
5
52
5
.
c) B = Un par: {a, a, b, c, d}; donde a, b, c y d son valores distintos.
El valor a lo elegimos entre 13 valores posibles.
4
Para cada valor de a hay 4 pintas posibles de las que podemos elegir 2 pintas de
2
36
maneras.
Una vez hecha
esta elecci
on, podemos escoger los valores b, c y d entre los 12
12
restantes de
maneras.
3
Finalmente observemos que cada una de las cartas con valores b, c y d puede presentarse en 4 pintas diferentes, por lo que
|B| = 13
4
2
12
3
P (B) =
13
4
2
12
52
43
13
2
4
2
4
2
13
11 4
P (C) =
4
2
11 4
52
12
An
alogamente las denominaciones b y c se pueden elegir de
maneras diferentes
2
y para cada una de estas denominaciones se tienen 4 pintas posibles. Por lo tanto
|D| = 13
4
3
12
2
trios y
P (D) =
13
4
3
12
52
42
37
Hay 13 maneras de elegir el valor
a y 12 de elegir el valor b.
4
Para cada elecci
on de a hay
maneras de elegir las pintas del trio y por cada
valor de b
4
2
por lo tanto
|F | = 13
4
3
12
P (D) =
13
4
3
12
52
4
2
1.7.2.
F
ormulas Combinatorias.
m
m
m
1
m
n
= 1.
= m.
=
mn
, para 0 n m.
c4. F
ormula de Steaffel.
m1
n1
m1
n
para 0 n m 1.
c5.
n+m
r
n m
0
n m
1
r1
n m
2
r2
+ ... +
m
n m
r
m
X
m
k=0
m
X
m
k=0
= (1 + 1)m .
38
1.8.
Problemas de Colocaci
on.
Las situaciones descritas mediante los diferentes tipos de muestreo, pueden tambien presentarse utilizando esquemas de colocacion de bolas en cajas (de manera
aleatoria). Describiremos brevemente la relacion de estos esquemas de colocacion con
los diferentes tipos de muestreo que hemos estudiado.
MUESTREO
Se tienen m bolas numeradas en
una urna de la cual se extraen n.
COLOCACION
Se tienen m cajas numeradas y n
fichas (numeradas
o no) que se
colocan aleatoriamente
en las cajas.
- Cada caja puede contener un
n
umero arbitrario de fichas.
- Las fichas estan numeradas.
- En la k-esima caja se coloca la ficha
n
umero i.
- La k-esima caja puede recibir mas
de una ficha.
- Ninguna caja puede contener m
as
de una bola, n m.
- Las fichas estan numeradas.
I) n < m.
- En la k-esima caja se coloca la ficha
n
umero i.
- La k-esima caja recibe a lo sumo
una ficha.
m=n
- Cada caja recibe exactamente una
ficha numerada.
39
IV) Muestreo sin Orden y con Reposici
on.
Consideramos una caja que contiene n bolas numeradas. Se extrae una bola, se
anota el n
umero y se devuelve la bola a la caja. Este proceso se repite r veces y los
n
umeros se anotan sin tomar en cuenta el orden en que aparecen.
En primer lugar determinaremos el n
umero de elementos del espacio muestral asociado a este experimento. Una manera natural de enfocar esta situacion es considerando el problema equivalente de colocar r bolas indistinguibles en n cajas numeradas,
permitiendo mas de una bola en una caja:
jk bolas en la caja # k equivale a sacar la bola con el n
umero k jk veces.
Veamos que en efecto ambos problemas son equivalentes. Un resultado del espacio
muestral asociado al muestreo sin orden y con reposicion es de la forma (aj1 , . . . , ajr )
donde 1 jk n, 1 k r. Que el muestreo es con reposicion significa que los jk0 s
pueden repetirse:
aj1 significa que hay una bola en la caja j1 ,
aj2 significa que hay una bola en la caja j2 ,
aj3 significa que hay una bola en la caja j3 ,
...
ajr significa que hay una bola en la caja jr .
Ejemplos 1.14
Supongamos que se tienen 6 bolas identicas para ser distribuidas en 4 cajas
numeradas del 1 al 4. Es decir se tienen las etiquetas con los n
umeros de las cajas
en una bolsa y se sacan aleatoriamente y con reposici
on 6 veces. Si representamos
aji = ji , el resultado (3, 4, 4, 3, 2, 1) significa que se colocaron una bola en la caja 1,
una en la caja 2, dos en la caja 3 y dos en la caja 4. Note que, a
un cuando el orden
en que se colocan las bolas esta registrado en el resultado, el mismo resulta irrelevante ya que lo que importa es el n
umero de bolas que al final tiene cada caja. Por
ejemplo (3, 4, 4, 3, 2, 1) y (4, 4, 3, 3, 1, 2) representan el mismo resultado. Esta notacion
resultar
a conveniente mas adelante cuando se consideren bolas distinguibles.
NOTA: Cada vez que el ndice ji aparezca se coloca una bola en la caja ji .
Podemos imaginar que sacamos aleatoriamente y con reposicion r fichas, numeradas
del 1 al n, contenidas en una caja. El n
umero obtenido en una extraccion es el n
umero
de la caja donde se colocara la bola siguiente.
En una muestra en la que el objeto ai se repite ri veces, i = 1, . . . , n, se tiene que
n
X
i=1
40
veces.
Si r < n entonces al menos n r de los ri son iguales a cero; esto equivale a que
al menos n r cajas queden vacias. Si r n todava puede haber cajas vacias (ri s
iguales a cero). Calculemos el n
umero de elementos del espacio muestral.
Podemos representar las n cajas por n 1 barras verticales (|) y las bolas por
estrellas (). Un posible elemento en el caso en que n = 8 y r = 8 sera
{|| | | || |}.
En la representacion anterior este elemento es (a1 , a3 , a3 , a3 , a4 , a5 , a5 , a7 ) por lo
que r1 = 1, r2 = 0, r3 = 3, r4 = 1, r5 = 2, r6 = 0, r7 = 1 y r8 = 0.
Toda configuracion consta de n 1 barras y r estrellas, por lo tanto el es como
tener banderas de dos colores combinadas al azar para formar se
nales: hay un total
de n 1 + r banderas de las cuales n 1 son del color 1 y r son del color
2. El n
umero de elementos del espacio muestral es el n
umero de posibles se
nales; es
decir,
(n + r 1)! n+r1 n+r1
=
.
|| =
=
r
n1
(n 1)!r!
Ejemplos 1.15
1. Se tienen r dados identicos. Cuantos posibles resultados hay en un lanzamiento?
Podemos representar los resultados mediante un conjunto {aj1 , aj2 , . . . , ajr }, donde
aji significa un dado cae en el n
umero ji , ji {1, . . . , 6}. Esto a su vez equivale a
colocar una bola en la caja ji .
Como hay 6 cajas y r bolas, el n
umero de sesultados posibles es igual a
6+r1
r
6+r1
61
5+r
5
2. En una pi
nata hay 10 juguetes identicos y 8 ni
nos. Si cualquiera de ellos puede
recoger mas de un juguete, de cuantas maneras pueden quedar repartidos los juguetes?
Identificamos a cada ni
no con una caja y a cada juguete con una bola. Entonces
n = 8 y r = 10 por lo que hay
17
8+101
=
10
10
41
(sin las barras): {. . . } con lo que quedan r1 espacios para ser ocupados por las
n 1 barras. Una disposicion de bolas en cajas se obtiene cuando se seleccionan n 1
espacios,
de entre los r 1 disponibles, para colocar las barras. Esto puede hacerse
r1
de
formas, por lo que este es el n
umero de elementos en el evento considerado.
n1
Ejemplos 1.16
1. En el ejemplo anterior (2) cual es la probabilidad de que no quede ningun ni
no
sin juguete?
9
7
17 .
10
b) N
umero de colocaciones en que ninguna caja contiene mas de una bola. Esto equivale a extraer r bolas, r n sin reemplazo. Un resultado tpico de este evento se
caracteriza por no presentar dos estrellas contiguas.
Si se disponen las n 1 barras {| | | . . . |} que generan n espacios donde se
n
colocaran r bolas; por lo tanto hay
disposiciones posibles.
r
N
umero de colocaciones de r bolas distinguibles en n cajas.
Se colocan al azar r bolas numeradas en n cajas numeradas. Esto puede hacerse
mediante la extraccion aleatoria, con orden y con reposici
on, de r etiquetas enumeradas de 1 hasta n. Un resultado puede representarse como una r-tupla ordenada
(b1 , b2 , . . . , br )
donde la i-esima coordenada corresponde a la caja donde se coloco la bola i. Por la
forma en que se realiza el muestreo, es claro que una caja puede contener mas de
una bola. Ademas es claro que el n
umero de elementos pertenecientes a este espacio
r
muestral es igual e n .
Consideremos el evento ri bolas en la caja ji donde r1 + r2 + . . . + rk = r, ri 0
y 1 ji n para i = 1, . . . , k. El n
umero de elementos en este evento es
n!
.
r1 !r2 ! . . . rk !
Verifiquelo.
42
Ejercicios 1.3
1. Un grupo de seis personas va al teatro. De cuantas maneras diferentes pueden
sentarse en seis asientos adyacentes?
2. Si el grupo en el ejercicio anterior esta conformado por tres hombres y tres mujeres,
calcule la probabilidad de que dos personas del mismo sexo nunca queden en asientos
contiguos.
3. Suponga que siete espacios adyacentes van a ser ocupados por las letras c y s
de forma tal que c aparece cuatro veces y s tres veces. Cuantos arreglos diferentes
pueden formarse de esta manera? Nota: recuerde que no se distingue entre dos letras
c o dos letras s.
4. Considere un juego de lotto en el que se gana el premio maximo acertando seis
n
umeros tomados de un panel de n
umeros del 1 al 40. Calcule la probabilidad de ganar con un juego.
5. Si 4 venezolanos, 3 franceses y 3 italianos se sientan en una fila, cuantas disposiciones son posibles si personas de la misma nacionalidad deben sentarse juntas?
6. a) De cuantas maneras pueden 3 ni
nos y 3 ni
nas sentarse en una fila?
b) De cuantas maneras pueden 3 ni
nos y 3 ni
nas sentarse en una fila si los ni
nos
deben sentarse juntos y las ni
nas deben sentarse juntas?
c) De cuantas maneras si solo los ni
nos deben sentarse juntos?
d) De cuantas maneras si no se permite que dos personas del mismo sexo se sienten
juntas?
7. De cuantas maneras pueden sentarse 8 personas en fila en las condiciones
siguientes: a) no hay restricciones;
b) las personas A y B deben sentarse juntas;
c) hay 4 hombres y 4 mujeres y no se sientan juntas dos personas del mismo sexo;
d) hay 5 hombres y ellos deben sentarse juntos;
e) hay 4 parejas casadas y cada pareja debe sentarse junta?
8. Un ni
no tiene 12 bloques de madera de los cuales 6 son negros, 4 son rojos, 1 es
blanco y 1 es azul. Si el ni
no pone los bloques en linea, cuantos arreglos son posibles?
9. Cuantos arreglos pueden hacerse con las letras de :
a) FACIL; b)MANZANO; c)MISSISSIPPI; d)COMARCA.
10. Un departamento de polica en un pueblo peque
no tiene 10 oficiales. Si el de-
43
partamento tiene 5 oficiales patrullando las calles, 2 trabajando en la estacion y 3
en reserva en la estacion, cuantas divisiones diferentes de los 10 oficiales en los 3
grupos son posibles?
11. Una junta de 7 se forma con 2 estudiantes, 2 empleados y 3 profesores que se
escogen de un grupo de 5 estudiantes, 6 empleados y 4 profesores. Cuantas juntas
son posibles?
12. Un presidente un tesorero y un secretario van a ser elegidos de un grupo de
10 personas. De el n
umero de elecciones posibles en cada uno de los siguientes casos:
a) No hay restricciones.
b) A y B no trabajan juntos.
c) C y D trabajan juntos o no trabajar
an.
d) E debe tener uno de los cargos.
e) F aceptar
a solo el cargo de presidente?
13. Se dividen 12 personas en 3 comisiones de tama
no 3, 4 y 5. Cuantas comisiones diferentes pueden formarse?
14. Una prueba consta de 12 preguntas con respuestas V (verdadero) y F (falso). Un
estudiante que no estudio pide ayuda al profesor y este le dice que 6 de las preguntas
son verdaderas y 6 falsas. Cual es la probabilidad de que el estudiante responda correctamente a todas las preguntas?
15. Una persona llega a una reuni
on en la que no conoce a nadie. Si hay 6 mujeres y 4 hombres y se sabe que hay 4 matrimonios, de cuantas maneras puede la
persona figurarse como estan formados los matrimonios? De cuantas maneras si hay
3 matrimonios?
16. Un comite de 5 se selecciona aleatoriamente de un grupo de 6 hombres y 9 mujeres. Cual es la probabilidad de elegir 3 hombres y 2 mujeres?
17. Si dos bolas se extraen al azar y al mismo tiempo de una caja que contiene 6
bolas blancas y 5 bolas negras, cual es la probabilidad de que una de las bolas sea
blanca y la otra negra?
18. Se escogen al azar 4 zapatos de un conjunto de 5 pares. Cual es la probabilidad de que se forme por lo menos un par?
19. Suponga que Marcos esta asistiendo a una convenci
on para nacidos en el mes de
Enero. Marcos y otras siete personas se quedan encerrados en un ascensor y para pasar
el tiempo Marcos trata de calcular la probabilidad de que todas las ocho personas atra-
44
padas tengan cumplea
nos diferentes. Que respuesta debera obtener Marcos? Cual
es la probabilidad de que al menos dos personas tengan el mismo cumplea
nos? Nota:
Asuma que las ocho personas son nacidas en enero.
20. Si r personas se encuentran en un edificio p
ublico, cual es la probabilidad de
que al menos dos de ellas tengan la misma fecha (dia/mes) de cumplea
nos?
21. Si se lanzan dos dados, cual es la probabilidad de que la suma de las caras
sea igual a i {2, 3, . . . , 12}?
22. Cual es la probabilidad de sacar 6 o menos de 6 con tres dados distintos? Cual
es la probabilidad si los dados son identicos? Suponga que los dados son perfectamente
simetricos.
23. Una urna contiene 3 bolas rojas y 7 negras. Jugadores A y B extraen bolas de la
urna consecutivamente y comenzando por A, hasta que una bola roja sea seleccionada. Encuentre la probabilidad de que A saque la bola roja. Sugerencia. Considere los
eventos: EA = A saca la bola roja y Ei = la bola roja se saca en la i-esima extraccion.
24. Se lanza una moneda hasta que aparezca por primera vez el mismo resultado
dos veces. Asumiendo que cada cara de la moneda tiene igual probabilidad, halle la
probabilidad de los siguientes eventos: A = El experimento termina antes del sexto
lanzamiento. B = Se requiere un n
umero par de lanzamientos.
25. Una urna contiene 5 bolas rojas, 6 bolas azules y 8 bolas verdes. Si un conjunto de
3 bolas es extraido aleatoriamente, cual es la probabilidad de que todas las bolas sean
del mismo color? Cual es la probabilidad de que todas sean de colores diferentes?
Nota: considere los casos en que las extracciones se realizan con reemplazamiento y
sin reemplazamiento.
26. Un grupo de 6 hombres y 6 mujeres se dividen aleatoriamente en dos grupos
de 6 personas cada uno. Encuentre la probabilidad de que cada grupo tenga el mismo
n
umero de hombres.
27. Demuestre la formula de Steaffel.
28. De un argumento combinatorio para justificar la formula c5. Demuestre analticamente la formula.
29. Demuestre la formula del binomio de Newton.
30. Se reparten al azar 5 bolas distinguibles en 3 casillas. Determine la probabili-
45
dad de que por lo menos haya una en cada casilla.
31. De cuantas maneras pueden colocarse n bolas identicas en n cajas numeradas
de tal modo que exactamente dos cajas queden vacias? De cuantas maneras de tal
modo que una caja quede vacia?
32. Se colocan n bolas distinguibles en n cajas numeradas. Encuentre la probabilidad de que exactamente una caja quede vacia.
33. Si se colocan n bolas numeradas en n cajas numeradas, cual es la probabilidad de que cada caja contenga una bola?
34. Los n
umeros 1, 2, 3, . . . , n est
an colocados en un orden aleatorio, encuentre la
probabilidad de que
a) los dgitos 1 y 2 esten en su posici
on correcta.
b) los dgitos 1, 2 y 3 esten en su posici
on correcta.
35. Se tienen 2k cajas numeradas (desde 1 hasta 2k) y k bolas numeradas (desde
1 hasta k). Se distribuyen las k bolas en las 2k cajas de modo que cada caja contenga
a lo sumo una bola.
a) Halle el n
umero de configuraciones tales que la caja #1 resulte ocupada.
b) Halle el n
umero de configuraciones tales que la caja #1 resulte vacia.
c) Halle el n
umero de configuraciones tales que la caja #1 resulte vacia y la caja
#2 contenga la bola #2.
36. Un ascensor con 7 pasajeros se detiene en 10 pisos. Cual es la probabilidad
de que 2 pasajeros no se bajen en el mismo piso?
37. Se disponen en fila 3 bolas blancas y 6 bolas negras de manerta que no haya
dos bolas blancas consecutivas. Cuantas maneras hay de hacerlo?
38. Se lanzan 6 dados distinguibles.
a) De cuantas maneras pueden salir sus caras superiores?
b) De cuantas maneras puede ocurrir que sus caras superiores sean todas distintas?
46
47
1.9.
1.9.1.
Probabilidad Condicional.
48
El espacio muestral actualizado es: E1 , este espacio tiene 14 19 posibles resultados
de los cuales 14 13 son favorables a E2 , por lo tanto la probabilidad de que ocurra
E2 dado que ocurre E1 es
14 13
=
14 19
(1413)
(2019)
(1419)
(2019)
P (E1 E2 )
.
P (E1 )
14 20
7
= .
20 20
10
Definici
on 1.3 Sea (, A, P ) un espacio de probabilidad y sea B A tal que P (B) >
0. Definimos la funcion de conjuntos probabilidad condicional dado B, denotado
P (|B) mediante
P (A B)
P (A|B) =
, para todo A A.
P (B)
NOTA: en los ejemplos anteriores se calcularon: P (A|B), P (h|v) y P (E2 |E1 ).
Propiedades b
asicas.
Sea (, A, P ) un espacio de probabilidad y sea B A tal que P (B) > 0. Entonces
1. La funcion P (|B) es una probabilidad. En efecto
i) P (A|B) 0 para cada A A.
ii) P (|B) = P P(B)
= PP (B)
= 1.
(B)
(B)
iii) Sea (An )n1 una sucesion de eventos disjuntos dos a dos. Entonces
P (n1 An B)
P (n1 (An B))
=
P (B)
P (B)
X P (An B)
X
P (An |B).
=
=
P (B)
n1
n1
P (n1 An |B) =
P (AB)
P (B)
P (B)
P (B)
P (AB)
P (B)
= 1.
= 0.
49
Ejemplos 1.18
1. A y B juegan el siguiente juego de dados: Se lanzan dos dados, si la suma de
los dados es igual a 7 A gana y si la suma es igual a 8 B gana. El juego termina al
obtener un ganador. Cual es la probabilidad de que A gane?
Solucion 1. Sea pn la probabilidad de que A gane en n lanzamientos. Esto significa
que en los lanzamientos 1, 2, . . . n 1 no se obtiene un 7 o un 8. Denotamos el evento
la suma es 8 por E8 = {(2, 6), (6, 2), (3, 5), (5, 3), (4, 4)} y el evento la suma es 7 por
)n1 .
E7 = {(1, 6), (6, 1), (2, 5), (5, 2), (3, 4), (4, 3)}. Tenemos entonces que pn = 61 ( 25
36
Con lo cual
X
1 X 25 n1 1 X 25 n
6
pn =
P (A) =
( )
( ) = .
=
6 n1 36
6 n0 36
11
n1
Solucion 2. Lo anterior es equivalente a decir que P (A) es la probabilidad condicional
de que la suma sea 7 dado que el juego termina en alg
un lanzamiento, es decir
P (A) = P ({7}|{7, 8}) =
P ({7})
6
= .
P ({7, 8})
11
2. Se lanza un dado dos veces. a) Si la suma de los resultados es 8, cual es la probabilidad de que el primer resultado sea k {1, 2, . . . , 6}?
b) Si el primer lanzamiento result
o en un 3, cual es la probabilidad de que el segundo
sea k {1, 2, . . . , 6}?
c) Si el primer lanzamiento result
o en un 3, cual es la probabilidad de que la suma
sea 7?
Solucion. Denotemos por X el resultado del primer lanzamiento y por Y el resultado
del segundo lanzamiento. Tenemos que P (X = k) = 61 = P (Y = k).
a) Se quiere P (X = k|X + Y = 8) =
P ((X=k)(X+Y =8))
.
P (X+Y =8)
Dado que
(X + Y = 8) = {(2, 6), (6, 2), (3, 5), (5, 3), (4, 4)}
se tiene que P (X + Y = 8) =
5
.
36
Adem
as
(
P ((X = k) (X + Y = 8)) =
Por lo tanto
1
5
P (X = k|X + Y = 8)) =
b) P (Y = k|X = 3) =
P ((Y =k)(X=3))
P (X=3)
1/36
1/6
1
36
0
1
6
si 2 k 6
si k = 1.
si 2 k 6
si k = 1
(1.2)
(1.3)
= P (Y = k).
Observe que el segundo lanzamiento no afecta la probabilidad del resultado del primer
50
lanzamiento.
c) P (X + Y = 7|X = 3) =
P ((X+Y =7)(X=3))
P (X=3)
1/36
1/6
= 61 .
P (E R)
.
P (R)
Sabemos que:
P (E) = p,
P (R E)
P (R|E) =
= 0, 9 P (E R) = 0, 9p
P (E)
P (R E c )
= 0, 01 P (E c R) = 0, 01(1 p).
P (R|E c ) =
P (E c )
Por lo tanto P (R) = P (R E) + P (R E c ) = 0, 9p + 0, 01(1 p) con lo que
P (E|R) =
0, 9p
90p
=
.
0, 9p + 0, 01(1 p)
89p + 1
1
En particular si p = 30
se tiene que P (E|R) ' 0, 76. Note que si p es peque
no la
efectividad del examen para detectar la enfermedad es dudosa.
4. Tiempo de vida de un aparato que no envejece. Consideremos un aparato electrico cuyo funcionamiento no es afectado por el paso del tiempo, sino que se destruye
por alguna perturbaci
on aleatoria. Esto puede expresarse de la siguiente manera: Dado que el aparato esta funcionando en el instante s su tiempo de vida a partir de
ese instante evoluciona como si el aparato hubiera comenzado a funcionar en s. Si
denotamos por T al tiempo de vida del aparato lo anterior significa que
P (T > s + h|T > s) = P (T > h) h > 0,
es decir
51
Si denotamos (t) = P (T > t) la igualdad anterior significa que
(s + h) = (s) (h).
Se puede comprobar que
(t) = et ;
1.9.2.
donde t 0, 0.
Resultados B
asicos sobre Probabilidad Condicional.
Proposici
on 1.1 (Probabilidad de la intersecci
on). Sean A1 , . . . , An una colecci
on
finita de eventos tales que P (A1 A2 . . . An ) > 0. entonces se verifica que
P (A1 A2 . . . An ) = P (A1 )P (A2 |A1 )P (A3 |A1 A2 ) . . . P (An |A1 A2 . . . An1 ).
P (A1 A2 )
1 A2 A3 )
, P (A3 |A1 A2 ) = P (A
,
P (A1 )
P (A1 A2 )
P (A1 A2 ...Ak )
Ak1 ) = P (A1 A2 ...Ak1 ) . Como
Demostraci
on. Observemos que P (A2 |A1 ) =
y de manera similar P (Ak |A1 A2 . . .
52
Proposici
on 1.2 (Formula de la Probabilidad Total.) Sea (, A, P ) un espacio de
probabilidad y sea (An )n1 A una partici
on del espacio , esto es = An y
Ai Aj = , para i 6= j. Entonces para todo evento B se cumple que
P (B) =
P (Ai )P (B|Ai ).
i1
Demostraci
on. Escribimos
B = B = B (i1 Ai ) = i1 (B Ai ).
Entonces, como la familia (B Ai )i1 es disjunta, tenemos que
P (B) = P (i1 (B Ai )) =
X
i1
P (B Ai ) =
P (Ai )P (B|Ai ).
i1
Comentarios.
1. Si para alg
un n, P (An ) = 0, entonces P (B An ) = 0, por lo que no importa que
P (B|An ) no este definido, ya que el termino correspondiente no aprece en la formula.
2. La formula anterior permite descomponer el evento B en eventos cuyas probabilidades pueden, en algunos casos, ser calculadas mas facilmente.
Ejemplos 1.20
1. Una urna contiene 6 bolas rojas y 4 negras. Se extraen al azar y sin reposici
on
2 bolas. Considere los siguientes eventos:
A1 =la primera bola es roja; A2 = la segunda bola es roja. Calcule P (A2 ).
6
Solucion. Tenemos que P (A1 ) = 10
= 35 y P (A1 A2 ) = P (A1 )P (A2 |A1 ) = 35 59 = 13 .
Por lo tanto
1 26
3
P (A2 ) = P (A1 )P (A2 |A1 ) + P (Ac1 )P (A2 |Ac1 ) = +
= .
3 59
5
2. Una compa
na de seguros clasifica a las personas en dos grupos: aquellos que son
propensos a accidentes y aquellos que no lo son. Las estadisticas muestran que una
persona propensa a accidentes tendra un accidente en alg
un momento en un perodo
de un a
no con probabilidad 0.4, mientras que la probabilidad del mismo evento para
una persona no propensa a accidentes es 0.2. Se asume que el 30 % de la poblaci
on
es propensa a accidentes. a)Calcule la probabilidad de que un nuevo asegurado tenga
un accidente en el a
no siguiente a la compra de la poliza, b) Suponga que un nuevo
asegurado tiene un accidente en el a
no siguiente a la compra de la poliza. Calcule la
probabilidad de que el asegurado sea propenso a accidentes.
Solucion. a) Sea A =el asegurado tiene un accidente en el a
no siguiente a la compra
de la poliza y B = el asegurado es propenso a accidentes. Entonces
P (A) = P (A B) + P (A B c ) = P (B)P (A|B) + P (B c )P (A|B c )
= 0,3 0,4 + 0,7 0,2 = 0,12 + 0,14 = 0,26.
53
b) Se desea calcular
P (B|A) =
P (B)P (A|B)
0,3 0,4
6
=
= .
P (A)
0,26
13
La F
ormula de Bayes.
En la formula de la probabilidad total, supongamos que el evento B ha ocurrido. Si los eventos (An )n1 se interpretan como hipotesis.acerca de una determinada
situacion, puede ser de interes el saber de que manera la ocurrencia de B afecta la
probabilidad de las hipotesis. Es decir, consideramos una situacion inversa a la que
se presenta en la proposicion anterior.
Teorema 1.1 (Teorema de Bayes) Sea (An )n1 una sucesi
on disjunta de eventos en
un espacio de probabilidad (, A, P ) tales que = An . Sea B A tal que P (B) > 0.
Entonces para cada n se cumple que
P (An |B) = P
P (An )P (B|An )
.
i1 P (Ai )P (B|Ai )
Demostraci
on. Es immediata utilizando la formula de la probabilidad total y la definin B)
cion de probabilidad condicional, ya que P (An |B) = P (A
.
P (B)
Comentario. Otra importante interpretacion se obtiene si se considera (An )n1 como posibles causasdel evento B. La formula expresa la contribucion de cada una de
las causas en la ocurrencia de B, dado que B ocurre. Por ejemplo, se consideran como
posibles causas de una inundacion A1 = llueve en exceso, A2 = se echan desperdicios
en los desaguaderos, A3 =no se hace mantenimiento a las quebradas, A4 =se modifica
el cause de los rios por siembras o construcciones, etc.
Ejemplos 1.21
1. Un paciente sufre de una enfermedad que es fatal en el 50 % de los casos. Un
posible tratamiento es quir
urgico. Se ha demostrado que de los sobrevivientes el 40 %
ha tenido ciruga y de los no sobrevivientes 10 % ha tenido ciruga. Encuentre la probabilidad de que un paciente sobreviva si ha tenido ciruga.
Solucion. Sean S = el paciente sobrevive y C =el paciente tuvo ciruga. Entonces
P (S) = 0,5 = P (S c ). Adem
as sabemos que P (C|S) = 0,4 y P (C|S c ) = 0,1. Entonces
la probabilidad buscada es
P (S|C) =
0,4 0,5
0,2
P (S)P (C|S)
=
=
= 0,8
P (S)P (C|S) + P (S c )P (C|S c )
(0,4 0,5) + (0,1 0,5)
0,2 + 0,05
54
casos, cuando este esta presente; pero puede presentar un falso resultado positivo en un
5 % de los casos. Si en determinada poblaci
on la enfermedad aparece en alrededor de
0.3 % de las personas, calcule la probabilidad de que una persona tenga la enfermedad
dado que el resultado fue positivo.
Solucion. Sean R =el examen resulto positivo; E =la enfermedad esta presente.
Sabemos que P (R|E) = 0,95, P (Rc |E) = 0,05, P (R|E c ) = 0,05 y P (E) = 0,003.
Entonces
P (E|R) =
P (E)P (R|E)
0,95 0,003
=
= 0,05.
c
c
P (E)P (R|E) + P (E )P (R|E )
0,95 0,003 + 0,05 0,997
55
Definici
on 1.4 Dos eventos A y B son independientes si P (A|B) = P (A). Esto es
equivalente a tener que P (A B) = P (A)P (B).
Observe que y son independientes de cualquier evento.
Proposici
on 1.3 Si A y B son independientes, tambien lo son: a) A y B c , b) Ac y
c
B.
Demostraci
on. a) Dado que P (A) = P (A B) + P (A B c ) tenemos que
P (AB c ) = P (A)P (AB) = P (A)P (A)P (B) = P (A)(1P (B)) = P (A)P (B c ).
b) En este caso tenemos que
P (Ac B c ) = P ((A B)c ) = 1 P (A B) = 1 P (A) P (B) + P (A B)
= 1 P (A) P (B) + P (A)P (B) = 1 P (A) P (B)(1 P (A))
= (1 P (A))(1 P (B)) = P (Ac )P (B c )
Ejemplos 1.23
Suponga que en ejemplo 1.22 la extracci
on se realiza sin reposici
on. En este caso
calculamos
P (D2 ) = P (D2 D1 ) + P (D2 D1c ) = P (D2 |D1 )P (D1 ) + P (D2 |D1c )P (D1c )
3 4
4 6
36
2
=
+
=
= .
9 10 9 10
90
5
Como, por otra parte P (D2 |D1 ) =
3
9
6=
2
5
Definici
on 1.5 Una familia arbitraria de eventos C = {Ai : i I} se dice
independiente si para cualquier colecci
on finita de eventos Ai1 , Ai2 , . . . , Ain de C se
cumple:
P (nj=1 Aij ) =
n
Y
P (Aij ).
j=1
Ejemplos 1.24
Calcule la probabilidad de obtener tres 6 al lanzar ocho dados.
El problema equivale a calcular la probabilidad de obtener tres 6 al lanzar ocho veces
el mismo dado. Sea Ei =se obtiene un 6 en el i-esimo lanzamiento. Por independencia
tenemos que
1 5
P (E1 E2 E3 E4c E5c E6c E7c E8c ) = ( )3 ( )5 .
6 6
Se puede verificar facilmente que esta es la probabilidad de cualquier conjunto de ocho
lanzamientos de un dado en que se produzcan exactamente tres 6. Finalmente como
existen (83 ) conjuntos de este tipo, la probabilidad buscada es (83 )( 61 )3 ( 65 )5 .
56
Ejercicios 1.4
1. Una caja contiene metras de las cuales 10 son blancas, 5 amarillas y 10 negras.
Se escoge una metra al azar de la caja y se observa que no es negra. Cual es la
probabilidad de que sea amarilla?
2. Se lanzan dos dados perfectos. Cual es la probabilidad condicional de que al menos
uno de ellos caiga en un 6 dado que caen en n
umeros diferentes?
3. Si dos dados perfectos son lanzados, Cual es la probabilidad condicional de que
el primero caiga en un 6 dado que la suma de los dados es i? Calcule la probabilidad
para todos los valores i en tre 2 y 12.
4. Una urna contiene 6 bolas blancas y 9 negras. Si 4 bolas se extraen aleatoriamente y sin reposici
on, cual es la probabilidad de que las dos primeras sean blancas
y las dos u
ltimas negras?
5. Una urna contiene 12 bolas de las cuales 8 son blancas. Se extrae una muestra de 4 bolas con reemplazamiento (sin reemplazamiento). Cual es la probabilidad
condicional (en ambos casos) de que la primera y la tercera bolas seleccionadas sean
blancas, dado que la muestra contiene exactamente 3 bolas blancas?
6. El dilema de un medico. Un medico refiere a un colega la siguiente situacion:
Si tengo la certeza de al menos un 80 % de que mi paciente sufre de esta determinada enfermedad, entonces siempre recomiendo ciruga, mientras que si no estoy tan
seguro recomiendo evaluaciones adicionales que resultan costosas y, en algunos casos,
dolorosas. Con el se
nor Gonzalez inicialmente tuve solo un 60 % de certidumbre de
que sufra la enfermedad, por lo cual ordene la serie de evaluaciones A que siempre
dan un resultado positivo cuando el paciente tiene la enfemedad y casi nunca (da resultado positivo) si el paciente no tiene la enfermedad. El resultado fue positivo, pero
cuando estaba listo para recomendar ciruga el paciente me informa por primera vez
que es diabetico. Esto complica las cosas porque, aunque no cambia mi 60 % de certidumbre inicial, afecta la interpretacion de los resultados de la evaluacion A, el cual
no produce resultados positivos cuando el paciente es saludable, pero desafortunadamente produce resultados positivos en 30 % de los pacientes diabeticos que no sufren
la enfermedad. Ahora que debo hacer? Mas evaluaciones o ciruga de inmediato?
7. Un examen de sangre de un laboratorio tiene efectividad de 95 % al detectar una
cierta enfermedad cuando esta esta en efecto presente. Sin embargo el examen puede
tambien dar un falso positivode 1 % para personas sanas. Si 0,5 % de la poblaci
on
tiene la enfermedad, cual es la probabilidad de que una persona tenga la enfermedad
dado que el examen resulta positivo?
57
58
tiene 5 % de tornillos malos y la otra contiene 10 %. Se escogen dos cajas al azar, se
mezclan en otra caja y de ella se sacan cinco tornillos, uno de los cuales es defectuoso.
Cual es la probabilidad de que una de las cajas de la mezcla sea la que contena 10 %
de tornillos defectuosos?
17. Tres sucursales de una tienda tienen 8, 12 y 14 empleados de los cuales 4,7 y
10 son mujeres, respectivamente. a) Se escoge una sucursal al azar y de ella se escoge
un empleado. Si este es una mujer, cual es la probabilidad de que ella trabaje en la
sucursal con 12 empleados? b) Si se escoge un segundo empleado de la misma sucursal, cual es la probabilidad de que se escoja una mujer?
18. Las se
nales telegr
aficas de punto rayase envian en proporci
on de 3:4. Debido
a ciertas condiciones que causan una transmisi
on erratica, un punto se transforma
en raya con probabilidad 1/4 y una raya en punto con probabilidad 1/3. Si se recibe
un punto, cual es la probabilidad de que haya sido enviado un punto?
19. Si A1 , . . . , An son eventos independientes, demuestre que
P (A1 A2 . . . An ) = 1 (1 P (A1 )) (1 P (A2 )) . . . (1 P (An )).
20. Un dado A tiene 4 caras rojas y 2 blancas, mientras que un dado B tiene 2 caras
rojas y 4 blancas. Se lanza una moneda legal. Si cae en cara se lanza el dado A y si
cae en sello se lanza el B.
(a) Demuestre que la probabilidad de rojo en cualquier lanamiento es 1/2.
(b) Si los primeros dos lanzamientos resultan en rojo, cual es la probabilidad de que
en el tercer lanzamiento se obtenga un rojo?
(c) Si los primeros dos lanzamientos resultan en rojo, cual es la probabilidad de que
se este usando el dado A?
21. Sean A y B disjuntos y de probabilidad positiva. Pueden A y B ser eventos
independientes?
22. Un dado perfecto es lanzado sucesivamente. Halle la probabilidad de obtener al
menos un 6 en cuatro lanzamientos.
23. Una muestra de tama
no 4 se extrae, con reposici
on, de una bolsa que contiene
6 bolas de las cuales 4 son blancas. Sea A =exactamente una de las dos primeras
extraidas es blanca y B =la cuarta bola es blanca. (a) Son A y B independientes?
Que sucede si el muestreo se realiza sin reposici
on?
(b) Definamos C =exactamente dos de las bolas extraidas son blancas. Son A, B y
C independientes? Son B y C independientes?. Considere ambos muestreos: con y
sin reposici
on.
59
24. Un fabricante de motos inscribe tres corredores en una carrera. Sea Ai =el iesimo corredor finaliza la carrera en alguno de los tres primeros lugares, i = 1, 2, 3. Si
los eventos A1 , A2 y A3 son independientes y P (A1 ) = P (A2 ) = P (A3 ) = 0, 1; calcule
las probabilidades de los siguientes eventos:
(a) Ninguno de los corredores termina entre los tres primeros.
(b) Al menos uno de los corredores termina entre los tres primeros.
(c) Al menos dos terminan entre los tres primeros.
(d) Todos terminan entre los tres primeros.
25. Sean A y B eventos independientes tales que con probabilidad 1/6 ocurren simultaneamente y con probabilidad 1/3 ninguno de ellos ocurre. Halle P (A) y P (B).
Estan estas probabilidades determinadas de manera u
nica?
26. Sean A y B eventos independientes tales que con probabilidad 1/6 ocurren simultaneamente y con probabilidad 1/3 A ocurre y B no ocurre. Halle P (A) y P (B).
Estan estas probabilidades determinadas de manera u
nica?
27. Cual es el menor valor de n para el cual la probabilidad de obtener al menos
un 6 en una serie de n lanzamientos de un dado perfecto es mayor que 3/4?
28. Los eventos A1 , A2 , . . . son independientes y P (Aj ) = p, j = 1, 2, . . .. Halle el
menor valor de n para el cual P (ni=1 Ak ) p0 para un n
umero fijo p0 .
29. Una maquina consta de 4 componentes conectados en paralelo, de manera que
la maquina falla solo si los cuatro componentes fallan. Supongamos que los componentes son independientes entre si y sus probabilidades de fallar cuando la maquina
es encendida son 0,1; 0,2; 0,3 y 0,4 . Cual es la probabilidad de que funcione al
encenderla?
60
Captulo 2
Variables Aleatorias
2.1.
Introducci
on.
ei =
0
si el objeto es bueno
1 si el objeto es defectuoso
P
(2.1)
62
3. Se lanza un dado dos veces. Sean X =resultado del primer lanzamiento, Y =resultado
del segundo lanzamiento, W =maximo resultado en los dos lanzamientos y Z =mnimo de los resultados en los dos lanzamientos.
4. Se atiende un telefono. Cuantas llamadas pueden esperarse en un perodo de
5 minutos? Sea X = el n
umero de llamadas en [0,5]. Note que X {0, 1, 2, . . .}.
En cada una de las situaciones anteriores hemos asociado un valor numerico u
nico
a cada uno de los elementos del espacio muestral; en algunos casos esto se hace de
manera muy natural. Es de importancia el que los eventos se pueden expresar en
terminos de estos valores numericos. Comenzamos formalizando esta idea en el caso
de espacios de probabilidad discretos, lo que permitira entender mas claramente el
caso general.
Definici
on 2.1 Sea (, P(), P ) un espacio de probabilidad discreto. Una variable
aleatoria o variable aleatoria real es una funcion
X:R
que a cada le asocia un u
nico valor real X().
Ejemplos 2.2
1. En el ejemplo 2.1.1 tenemos Y ((ccc)) = 3, Y ((csc)) = 2, Y ((sss)) = 0, etc.
Si asumimos que la moneda es perfectamente simetrica, entonces
P (Y = 0) = 1/8, P (Y = 1) = 3/8, P (Y = 2) = 3/8 y P (Y = 3) = 1/8.
2. Sea c R un n
umero fijo. Defina X() = c para todo , es decir X es
constante. Entonces para todo intervalo I R se tiene que
(
(I) = { : X() I} =
si c I
si c I c
(2.2)
Por lo tanto
P X
(I) = P { : X() I} =
1 si c I
0 si c I c
(2.3)
X() = A () =
1 si A
0 si Ac
(2.4)
63
Entonces para todo intervalo I R se tiene que
X 1 (I) = { : X() I} =
si {0, 1} I
si {0, 1} I c
si 0
/I y1I
si 0 I y 1
/I
Por lo tanto
1
si {0, 1} I
0
si
{0, 1} I c
P X 1 (I) = P { : X() I} =
P (A) si 0
/I y1I
c
P (A ) si 0 I y 1
/I
4. Una urna contiene bolas numeradas del 1 al 20. Se seleccionan 3 al azar sin reemplazamiento. Si apostamos que al menos una de las bolas tiene un n
umero mayor
o igual a 17, cual es la probabilidad de que ganemos la apuesta?
(i1
2 )
, i = 3, 4, . . . , 20.
20
(3 )
Por lo tanto
P (ganar) = P (X = 20) + P (X = 19) + P (X = 18) + P (X = 17) = 0,508.
Definici
on 2.2 Sea (, A, P ) un espacio de probabilidad. Una variable aleatoria o
variable aleatoria real es una funcion
X:R
que satisface la propiedad de que para todo intervalo I R el conjunto
X 1 (I) = { : X() I} A,
es decir, es un evento.
El conjunto X 1 (I) se denomina preimagen de I por la funcion X; por lo que se dice
que la funcion X es una variable aleatoria si la preim
agen de cualquier intervalo es
un evento.
Definici
on 2.3 Una variable aleatoria se denomina discreta, si su rango es un conjunto discreto (finito o numerable). En este caso existe un conjunto {xn }n1 (conjunto
P
de valores de X) tal que n1 P (X = xn ) = 1.
64
En particular, las variables aleatorias definidas sobre espacios de probabilidad
discretos son discretas. Sin embargo una variable aleatoria definida sobre un espacio
de probabilidad no discreto puede ser discreta.
Ejemplos 2.3
1. Se escoge al azar un n
umero en [0, 1]. En este caso = [0, 1] y si se define
X() = [0, 1], se tiene que X no es una variable aleatoria discreta.
2. Si en los ejemplos 2.2.2 y 2.2.3 se considera un espacio muestral = [a, b) R,
donde a < b, se obtienen variables aleatorias discretas definidas sobre espacios no
discretos.
Definici
on 2.4 Dada una variable aleatoria discreta X cuyo conjunto de valores es
un conjunto {xn }n1 , la funcion
p : {xn }n1
7 [0, 1]
xn
7
p(n) = pn = P (X = xn )
(2.5)
se denomina funci
on de probabilidad de la variable aleatoria X o funci
on
de masa de probabilidad de la variable aleatoria X.
Nota. Esta funcion satisface la condicion
pn =
n1
P (X = xn ) = 1.
n1
Proposici
on 2.1 Si X y Y son variables aleatorias entonces tambien lo son : X +Y ,
X Y , XY y X/Y cuando Y 6= 0.
angulo en Rm es un conjunto de la forma {(x1 , . . . , xm ) :
Definici
on 2.5 Un intervalo o rect
x1 I1 , . . . , xm Im } = I1 I2 . . . Im donde, para i = 1, . . . , m, Ii R es un
intervalo.
Definici
on 2.6 Una variable aleatoria vectorial es una funcion
Y : Rm
tal que la preim
agen de cualquier intervalo I de Rm es un evento.
Proposici
on 2.2 Sean X : Rm y g : Rm R. Consideremos sobre Rm la
-algebra de Borel B (la menor -
algebra que contiene a todos los intervalos). Si X
y g son variables aleatorias, entonces la funcion definida por Y = g X es tambien
una variable aleatoria.
Demostraci
on. Es suficiente demostrar que la preimagen de cualquier intervalo I es
un evento.
Y 1 (I) = { : Y I} = { : g(X()) I} = { : X() g 1 (I)} = X 1 (g 1 (I)) A
65
2.2.
Funci
on de Distribuci
on.
Definici
on 2.7 Si X es una variable aleatoria, se define la funcion de distribucion
de X como la funcion FX : R [0, 1] tal que para cada y R,
FX (y) = P ({ : X() y}) = P (X y).
Comentarios.
1. En algunos casos se utiliza la notacion FX en lugar de F .
2. Si X es una variable aleatoria discreta tal que X() = {x1 , . . . , xn , . . .}, entonces
P
se define FX (x) = xn x pn donde pn = P (X = xn ).
Ejemplos 2.4
1. Considere la variable aleatoria definida en el ejemplo 2.1.1: X =# de caras en
3 lanzamientos. En este caso la funcion de distibucion esta dada de la siguiente forma:
1
1 3
1
1 3
7
F (0) = ; F (1) = + = ; F (1,5) = F (1); F (2) = + = ; F (3) = 1; F (4) = 1.
8
8 8
2
2 8
8
F(x)
1
7/8
1/2
1/8
pp
pp
pp
2.2.1.
pp
pp
pp
pp
pp
p
pp
pp
pp
pp
pp
pp
p
pppppppp
Propiedades de la Funci
on de Distribuci
on.
Teorema 2.1 Si F es la funcion de distribucion de una variable aleatoria X, entonces: a) 0 F (t) 1 para todo t R.
b) P (a < X b) = F (b) F (a) para a < b.
c) F (a) F (b) si a < b (no decreciente).
d) lmta+ F (t) = F (a) (continua a la derecha)
e) lmta F (t) = F (a) P (X = a).
f ) lmt F (t) = 1 y lmt F (t) = 0.
Demostraci
on.
a) Es inmediato ya que por definicion FX (y) = P (X y) [0, 1].
b) Escribimos { : X() b} como la union disjunta
{ : X() b} = { : X() a} { : a < X() b}.
66
Aplicando la aditividad de la probabilidad obtenemos
P ({ : X() b}) = P ({ : X() a}) + P ({ : a < X() b});
es decir,
F (b) = P (X b) = P (X a) + P (a < X b) = F (a) + P (a < X b).
c) Se deduce directamente de b) ya que 0 < P (a < X b) = F (b) F (a) para a < b.
d) Como F es no decreciente y acotada, el limite existe. Por b) sabemos que
F (t) F (a) = P (a < X t) para t > a.
Entonces
lm F (t) = F (a) + lm+ P (a < X t).
ta+
ta
ta+
1
1
< X() a + },
n+1
n
para n 1. La sucesion {Sn }n1 consta de eventos dos a dos disjuntos tales que:
1
di. { : a < X() a + 1} = n1 { : a + n+1
< X() a + n1 } = n1 Sn .
1
1
dii. P (Sn ) = P (a < X a + n ) P (a < X a + n+1 ) = qn qn+1 .
P
P
diii. q1 = P (a < X a + 1) = n1 P (Sn ) = n1 (qn qn+1 ) = q1 lmn qn . Por
lo tanto
0 = lm qn = lm+ P (a < X t).
n
ta
e) Por b) tenemos que F (a) F (t) = P (t < X a); por lo tanto basta demostrar
que
lm P (t < X a) = P (X = a).
ta
Para demostrar esto, veremos que para cualquier sucesion creciente {yn }n1 que
satisface: yn < a, para todo n 1, y yn a cuando n ; se cumple que
lmn P (yn < X < a) = 0.
67
Sean An = { : yn < X < a} y qn = P (An ). Como la sucesion {yn }n1 es
creciente se tiene que, para todo n 1, An+1 An (verifquelo). Por lo tanto
Tn = {yn < X yn+1 } = {yn < X < a} {yn+1 < X < a} = An An+1 ,
es tal que P (Tn ) = P (An ) P (An1 ) = qn qn+1 . Ademas, tenemos que {Tn }n1 es
una sucesion disjunta de eventos, por lo que
q1 = P (y1 < X < a) = P (n1 Tn ) =
P (Tn ) =
n1
lm
n
n
X
(qk qk+1 ) = q1 n
lm qn
k=1
(qn qn+1 )
n1
= n
lm qn = 0.
f) i) Para demostrar que lmx F (x) = 0 consideremos cualquier sucesion decreciente {xn }n1 tal que lmn xn = . Sea Bn = { : X xn }. Por ser
{xn } una sucesion decreciente, la sucesion {Bn } tambien es decreciente y es tal que
n1 Bn = (verifquelo). Por lo tanto se tiene que
lm F (x) = lm F (xn ) = lm P (X xn ) = lm P (Bn ) = P (n1 Bn ) = 0.
ii) Analogamente, para demostrar que lmx F (x) = 1, consideramos cualquier sucesion creciente {xn }n1 tal que lmn xn = . Entonces definimos la sucesion de
eventos Bn = { : X xn }, la cual es creciente y tal que n1 Bn =
(verifquelo). Se tiene entonces que
lm F (x) = lm F (xn ) = lm P (X xn ) = lm P (Bn ) = P (n1 Bn ) = 1.
Comentarios.
1. La propiedad e) indica que para todo a R, P (X = a) es igual al saltode la
funcion de distribucion F en el punto a. Por lo tanto P (X = a) = 0 en todos los
puntos a de continuidad de F .
2. Las propiedades c), d) y f) caracterizan a las funciones de distribucion. Es decir,
si una funcion G satisface estas propiedades, entonces existe una variable aleatoria Y
que tiene a G como funcion de distribucion.
La funcion de distribucion de una variable aleatoria permite calcular las
probabilidades de los eventos de interes determinados por la variable aleatoria.
Ejemplos 2.5
1. Supongamos que la funcion de distribucion de una variable aleatoria X est
a dada
68
por la funcion
si x < 0
si 0 x < 1
F (x) =
si 1 x < 2
11
12
si 2 x < 3
si 3 b
11
)
12
11
.
12
F(x)
1
11/12
2/3
1/2
pp
p
#pp
#
# ppp
#
p
pppppppp
pp
pp
pp
pp
pp
pp
p
pp
pp
pp
pp
pp
p
F (t) =
si t < 1
si 1 t < 1
2
1
4
t
+2
2
+ 34
si
1
2
t<0
si 0 t <
si 12 t
1
2
(2.6)
69
Ejercicios 2.1
1. Dos bolas se escogen de una urna que contiene 8 bolas blancas, 4 negras y 2 anaranjadas. La escogencia se hace al azar y se ganan dos puntos por cada bola negra y se
pierde un punto por cada bola blanca seleccionada. Defina la variable aleatoria X como las ganancias obtenidas. Encuentre la funcion de probabilidad de X, esto es, halle
los posibles valores de X y las probabilidades de ocurrencia de estos valores.
2. Se lanzan 3 dados perfectamente simetricos. Encuentre la probabilidad de cada
uno de los posibles valores de X =suma de los 3 dados.
3. Cinco hombres y cinco mujeres son clasificados de acuerdo a los resultados de
un examen en el cual no hay dos puntajes iguales y los 10! posibles resultados son
igualmente probables. Sea X el mas alto rango recibido por una mujer (X = 1 si una
mujer queda en primer lugar, X = 2 si un hombre queda en primer lugar y una mujer
en el segundo). Encuentre P (X = i), i = 1, . . . , 10.
4. Dos dados diferentes se lanzan dos veces. Encuentre los posibles valores que puede
tomar cada una de las variables aleatorias siguientes:
a) El maximo valor en los dos lanzamientos.
b) El minimo valor en los dos lanzamientos.
c) Suma de los dos lanzamientos.
d) Valor del primer lanzamiento menos valor del segundo lanzamiento.
5. Suponga que la funcion de distribucion de una variable aleatoria X esta dada
por
0
si b < 0
si 0 b < 1
4
1
b1
F (b) =
(2.7)
+ 4 si 1 b < 2
2
11
si
2
b
<
3
12
1
si 3 b
a) Grafique la funcion F . b) Encuentre P (X = i), i = 1, 2, 3. c) Encuentre P ( 21 <
X < 23 ).
6. Sea X una variable aleatoria con funcion de distribucion
F (b) =
0
1
2
3
5
4
5
9
10
si b < 0
si 0 b < 1
si 1 b < 2
si 2 b < 3
si 3 b < 3,5
si 3,5 b
(2.8)
70
Halle los posibles valores de X y la funcion de masa de probabilidad (o funcion de
probabilidad) de X. Grafique la funcion F .
7. La funcion de distribucion F de una variable aleatoria X viene definida por
si t < 2
si
2 t < 0
2
F (t) =
3
si 0 t < 2
4
1
si 2 t
(2.9)
a) Grafque la funcion F .
b)Describa la funcion de masa de probabilidad p (funcion de probabilidad de X) y
representela graficamente.
c) Calcule las siguientes probabilidades: P (X = 1), P (X 1), P (X < 1), P (X = 2),
P (X 2), P (0 < X < 2), P (0 < X 2),P (1 X 2).
8. La funcion de masa de probabilidad p de una variable aleatoria X es nula salvo en los puntos t = 0, 1, 2, donde toma los valores p(0) = 3c3 , p(1) = 4c 10c2 y
p(2) = 5c 1 para un c > 0.
a) Determine el valor de c.
b) Calcule las probabilidades: P (X < 1), P (X < 2), P (1 < X 2) y P (0 < X < 3).
c) Halle y grafque la funcion de distribucion F .
d) Halle el mayor valor de t tal que F (t) < 21 .
e) Halle el menor valor de t tal que F (t) > 13 .
9. Una variable aleatoria tiene funcion de distribucion continua F , dada por
F (t) =
si t 0
ct si 0 t 1
1
si 1 < t
(2.10)
1
),
3
P (X <
1
),
3
F (t) =
0
1
8
3
16
5
16
9
16
10
16
14
16
si t < 3
si 3 t < 2
si 2 t < 1,5
si 1,5 t < 0
si 0 t < 1
si 1 t < 2,5
si 2,5 t < 3
si 3 t
(2.11)
71
i) Grafique F .
ii) Calcule P (X = i) para i {3, 2, 1,5, 1, 0, 1, 1,5, 2, 2,5, 3, 3,5, 4}; P (X 2);
P (1 < X 3); P (X > 1,5); P (X < 0).
iii) Halle la funcion de probabilidad de X.
11. Sea X una variable aleatoria con funcion de distribucion
2
3t
+1
F (t) = 10 2 5
t
1
6+3
si t < 2
si 2 t < 0
si 0 t < 1
si 1 t < 2
si 2 t < 3
si 3 t
(2.12)
F (t) =
0
1
6
1
2
2
3
5
6
si t < 1
si 1 t < 0,5
si 0,5 t < 2
si 2 t < 3
(2.13)
si 3 t < 4
si 4 t
i) Grafique F .
ii) Calcule P (X = i) para i {3, 2, 1,5, 1, 0, 1, 0,5, 2, 2,5, 3, 3,5, 4}; P (X
2,5); P (1 < X 3); P (X > 0); P (X < 3).
iii) Halle la funcion de probabilidad de X.
72
2.3.
2.3.1.
(2.14)
Una variable aleatoria discreta con funcion de probabilidad dada por (2.10) se denomina variable aleatoria de Bernoulli .
2. Variable Aleatoria Binomial.
Supongamos que se realizan n ensayos de Bernoulli independientes y con probabilidad de exito p. La variable aleatoria definida como Y =# de exitos en los n
ensayos, se denomina variable aleatoria binomial con par
ametros n y p. Esto
tambien se expresa mediante la notacion Y b(n, p). El conjunto de valores de Y es
{0, 1, . . . , n} y su distribucion esta dada por
pi = b(i; n, p) = P (Y = i) =
n
i
pi (1 p)ni , i = 0, 1, . . . , n.
pi =
n
X
n
i=1
pi (1 p)ni = (p + 1 p)n = 1.
Ejemplos 2.6
1. Se lanzan 5 monedas perfectas. Sea X =# de caras, entonces X es una variable aleatoria binomial con par
ametros n = 5 y p = 0,5. Es decir X b(5, 0,5) con
5
funcion de probabilidad dada por P (X = i) =
(0,5)i (0,5)ni . Los valores de esta
i
73
funcion se dan en la siguiente tabla:
i
0
P (X = i) 1/32
1
5/32
2
10/32
3
10/32
4
5/32
5
.
1/32
pi
prp
pp
pp
pp
10/32
rp
pp
p
5/32
1/32
rpp
pp
pp
pp
rp
pp
p
prp
10
0
(0,01)0 (0,99)10
10
1
X
k=1
pk =
(1 p)k1 p =
k=1
(1 p)k p =
k=0
p
= 1.
1 (1 p)
74
Ejemplos 2.7
1. Una urna contiene N bolas blancas y M bolas negras. Se seleccionan bolas aleatoriamente, una a la vez y con reposici
on, hasta que una bola negra es obtenida. Cual
es la probabilidad de que se necesiten exactamente n extracciones? Cual es la probabilidad de que se necesiten al menos k extracciones?
Sea X =# extracciones necesarias para obtener una bola negra. La v.a. X es gey se desea calcular
ometrica con probabilidad de exito p = MM
+N
M N n1
M N n1
i) P (X = n) =
=
.
M +N M +N
(M + N )n
X
M
N n1 N k1
=
. Demuestrelo.
ii) P (X k) =
M + N n=k M + N
M +N
4. Variable Aleatoria de Poisson.
Sea X una variable aleatoria que tiene el conjunto de valores {0, 1, 2, . . .}. Se dice
que X es una variable aleatoria de Poisson con par
ametro , (0, ), si
la funcion de probabilidad de X esta dada por
pi = Po (i) = P (X = i) = e
i
, i = 0, 1, 2 . . . .
i!
Po (k) =
k=0
k=0
k!
= e e = 1.
Ejemplos 2.8
1. Suponga que el n
umero de errores tipogr
aficos en una pagina de un libro es una
75
v.a. de Poisson con par
ametro = 1/2. Si X =# errores por pagina, entonces la
probabilidad de que haya al menos un error en una pagina es
P (X 1) = 1 P (X < 1) = 1 P (X = 0) = 1 e
0
= 1 e1/2 = 0,393.
0!
nk
n!
nk
=
)k (1
k
n
n
k!(n k)! n
n
k (1 )n
(n k + 1)(n k + 2) . . . (n 1)n
n
=
k!
nk (1 n )k
P (X = k) =
)k (1
(n k + 1)(n k + 2) . . . (n 1)n k (1 n )n
nk
k! (1 n )k
(n k + 1) (n k + 2)
(n 1) n k (1 n )n
...
n
n
n n k! (1 n )k
k!
lmn (1 n )n k
=
e .
k!
lmn (1 n )k
Ejemplos 2.9
1. Se realiza un experimento que consiste en contar el n
umero de partculas irradiadas, en un intervalo de 1 segundo, por cada gramo de un material radioactivo.
Si la experiencia indica que, en promedio, 3.2 partculas son irradiadas, cual es la
probabilidad de que no aparezcan mas de 2 partculas( en 1 segundo)?
76
Sea X =# de partculas de material radioactivo descargadas en un segundo.
Se puede pensar en un gramo de material radioactivo como un gran conjunto de n
atomos, cada uno de los cuales tiene probabilidad p de desintegrarse durante el perodo
considerado, emitiendo una partcula . Entonces X tiene una distribucion binomial
con par
ametros (n, p) donde n es un n
umero muy grande y p = 3,2/n, ya que todos
los atomos tienen igual probabilidad de descargar una partcula. Por consiguiente el
calculo de las probabilidades pi pueden ser engorroso, lo que hace preciso considerar
b(n, p) ' P(np) = P(3,2). De esta forma tenemos
(3,2)2
P (X 2) = P (X = 0) + P (X = 1) + P (X = 2) = e
1 + 3,2 +
= 0,382.
2
P5. N
umero de eventos que ocurre en un intervalo de longitud t. Supongamos que un
evento dado ocurre en ciertos puntos aleatorios de tiempo de modo que, para alg
un
> 0 se cumplen:
Hi. La probabilidad de que ocurra exactamente un evento en un intervalo de longitud
h es h + o(h); donde o(h) es un valor peque
no en relacion con h.
Hii. La probabilidad de que 2 o mas eventos ocurran en un intervalo de longitud h es
o(h).
Hiii. Dados enteros n, j1 , j2 , . . . , jn y cualquier conjunto de intervalos disjuntos I1 , . . . , In ;
si se definen los eventos Ei =ocurren ji eventos en el intervalo Ii i = 1, . . . , n, entonces estos eventos son independientes.
3,2
Proposici
on 2.3 Supongamos que se cumplen las hipotesis Hi, Hii y Hiii. Sea N (t) =#
de eventos en un intervalo de longitud t, entonces N (t) es una variable aleatoria de
Poisson con par
ametro t; es decir,
P (N (t) = k) = et
(t)k
, k = 0, 1, 2, . . . .
k!
Ejemplos 2.10
1. En una regi
on de California, USA, ocurren terremotos de acuerdo a las hipotesis
Hi, Hii y Hiii, a una tasa de 2 por semana. Tomando una semana como unidad de
tiempo:
i. Encuentre la probabilidad de que al menos 3 terremotos ocurran durante las dos
semanas siguientes.
ii. Encuentre la distribucion de probabilidad de el tiempo, comenzando desde ahora,
hasta el proximo terremoto.
Puesto que se interpreta como el n
umero de ocurrencias por unidad de tiempo,
tenemos que = 2. Sea X(t) =# de terremotos en t semanas. Entonces queremos
calcular i.
P (X(2) 3) = 1 P (X(2) = 0) P (X(2) = 1) P (X(2) = 2)
= 1 e4 (1 + 4 + 8) = 1 13e4 .
77
ii. Sea T =tiempo hasta el proximo terremoto (medido en semanas). Entonces
P (T > t) = P (X(t) = 0) = et = F (t) = P (T t) = 1 P (T > t)
= 1 et = 1 e2t .
5. Variable Aleatoria Hipergeom
etrica.
Sea p (0, 1) dado y suponga que se va a seleccionar, aleatoriamente y sin reposicion, una muestra de tama
no n de una urna que contiene N bolas, de las cuales N p
son blancas y N N p son negras. Si X =# de bolas blancas seleccionadas, entonces
X tiene funcion de probabilidad dada por
N p N N p
k
pk = P (X = k) =
nk
, k = 0, 1, . . . , mn(n, N p).
Ejemplos 2.11
1. Un comprador de componentes electr
onicos los compra en lotes de 10. Su politica es inspeccionar 3 componentes y aceptar el lote solo si los 3 son no defectuosos.
Si 30 % de los lotes tienen 4 componentes defectuosas y 70 % solo 1, que proporci
on
de lotes rechaza el comprador?
Sean X =# de componentes defectuosas seleccionadas;
A =el comprador acepta el lote;
B =el lote tiene 4 defectuosas.
El evento A es equivalente a {X = 0}. Escribiendo A = A (B B c ) se tiene
que
P (X = 0) = P (A) = P (A B) + P (A B c ) = P (B)P (A|B) + P (B c )P (A|B c )
=
4 6
1 9
3 0 3
7 0 3
54
.
10 +
10 =
10
10
100
78
Ejercicios 2.2
1. Sea b(k; n, n ) = (nk )( n )k (1 n )nk la funcion de probabilidad de una variable aleatoria binomial con par
ametros (n, n ).
b(k;n, n
)
= k , para
b(k1;n, n
)
k
lmn b(k; n, n ) = e k! .
k = 0, 1, . . ..
79
sin poder extrasensorial obtenga el mismo n
umero de aciertos?
8. Un canal de cominicaci
on transmite dgitos 0 y 1. Debido a estatica, el dgito
se transmite incorectamente con probabilidad 0.2. Se quiere transmitir un mensaje
importante consistente en uno de los dgitos 0 o 1. Para reducir la posibilidad de error, se transmite 00000 en lugar de 0 y 11111 en lugar de 1. El que recibe identifica
el mensaje como el dgito que aparece un mayor n
umero de veces. Cual es la probabilidad de que se reciba el mensaje equivocado? Explique que suposiciones relativas a
independencia esta haciendo.
9. Un sistema de satelite consiste de n componentes y funciona en un dia determinado si al menos k de las n componentes funcionan. En un dia lluvioso, cada una
de las n componentes funciona, independientemente, con probabilidad p1 , mientras
que en un dia seco cada una de ellas funciona, independientemente, con probabilidad
p2 . Si la probabilidad de lluvia ma
nana es , cual es la probabilidad de que el sistema
funcione ma
nana?
10. Suponga que el n
umero de accidentes que ocurre en una autopista cada dia es
una variable aleatoria de Poisson con par
ametro = 3.
i) Encuentre la probabilidad de que 3 o mas accidentes se produzcan hoy.
ii) Encuentre la probabilidad de que al menos un accidente se produzca hoy.
11. Compare la aproximaci
on de Poisson con la probabilidad binomial correcta en
cada uno de los casos siguientes:
i) P (X = 2) cuando n = 8 y p = 0,1.
ii) P (X = 9) cuando n = 10 y p = 0,95.
iii) P (X = 0) cuando n = 10 y p = 0,1.
iv) P (X = 4) cuando n = 9 y p = 0,2.
12. Si usted compra un ticket de loteria en cada una de 50 loterias diferentes, siendo
1
en cada una la probabilidad de ganar igual a 100
, halle la probabilidad (aproximada)
de que usted ganara un premio: i) al menos una vez; ii) exactamente una vez; c) al
menos dos veces.
13. La gente entra a un casino a una rata de 1 cada 2 minutos. Halle la probabilidad de que: i) nadie entre entre 12:00 y 12:05; ii) al menos 4 personas entren en el
casino durante ese tiempo.
14. El n
umero de llamadas recibidas en una oficina entre 9:00 a.m. y 10:00 a.m.
es, en promedio, alrededor de 30. Use la distribucion de Poisson para encontrar la
probabilidad de que en un dia tipico no haya ninguna llamada entre 9:45 a.m. y 10:00
a.m. Sugerencia: Observe que = 30 y tome 1 hora como unidad de tiempo.
80
15. Los clientes llegan a un banco de acuerdo con una distribucion de Poisson con
par
ametro 40 (basado en una hora como unidad de tiempo). Dado que 30 clientes llegaron en la primera hora, encuentre la probabilidad de que 60 clientes lleguen durante
la primera hora y media.
16. Sea X una variable aleatoria de Poisson con par
ametro . Demuestre que la
funcion de probabilidad de X crece monotonamente y luego decrece monotonamente,
alcanzando su maximo valor en [].
17. Halle la probabilidad de que en una compa
na en la que trabajan 500 personas
exactamente k de ellas cumplan a
no el mismo dia.
18. Suponga que en una comunidad de 20000 personas se ha determinado que la
probabilidad de vivir 100 a
nos es igual a 0.002. Halle la probabilidad (aproximada) de
que haya 10 centenarios.
19. Una poblaci
on de N animales habita en cierta regi
on. El siguiente experimento es
realizado: primero se captura un grupo de r animales, se les marca y son devueltos a
su medio. Una vez que se han mezclado de nuevo se captura un grupo de n animales.
Si todos los animales tienen igual probabilidad de ser capturados, halle la probabilidad
de que el n
umero de animales marcados en la segunda captura sea igual a k. Cuales
son los posibles valores de k ?
20. En el proceso de control de calidad, una industria somete a inspecci
on un lote
de 10000 piezas de la siguiente forma: se selecciona una muestra de 1500 piezas y se
examinan en busca de piezas defectuosas. Si existen en el lote un total de 850 piezas
defectuosas, cual es la probabilidad de que se encuentren 300 piezas defectuosas en
la muestra seleccionada?
21. Se lanzan 3 monedas identicas y se sabe que estas tienen probabilidad de cara
igual a 1/3. Halle la funcion de probabilidad del n
umero de caras.
22. El n
umero de personas que utiliza un determinado cajero automatico en un dia,
es una variable aleatoria de Poisson con par
ametro = 10. a) Halle la probabilidad
de que el cajero no sea utilizado en el dia de hoy. b) Halle la probabilidad de que al
menos dos personas utilicen el cajero en el dia de ma
nana.
23. Una extra
na enfermedad aparece en el 5 % de los miembros de una comunidad
que consta de 15000 individuos. Calcule, aproximadamente, la probabilidad de que 10
personas sufran la enfermedad.
81
24. El n
umero de veces que un individuo se resfria en un a
no dado es una variable aleatoria de Poisson con par
ametro = 5. Suponga que un nuevo medicamento
reduce el par
ametro de Poisson a = 3 en un 75 % de la poblaci
on. El otro 25 % no
se beneficia de la droga. Si una persona usa la droga por un a
no y tiene dos resfriados
en ese tiempo, cual es la probabilidad de que esta persona sea uno de los que se
benefician de la droga ?
25. Un examen de selecci
on m
ultiple tiene 10 preguntas, cada una de las cuales
tiene 5 respuestas posibles. Un estudiante selecciona las respuestas al azar.
i) Cu
al es la distribucion del n
umero de respuestas correctas dadas por el estudiante?.
ii) Cu
al es la probabilidad de que el estudiante responda al menos 9 preguntas
correctamente?
26. El n
umero de inundaciones que se producen anualmente en una localidad es una
variable aleatoria de Poisson. Si, en promedio, ocurren 3 inundaciones por a
no, halle
la probabilidad de que la proxima inundacion se produzca en los proximos 6 meses.
82
2.3.2.
Definici
on 2.8 Una funcion f : R R es una funci
on de densidad sobre R
si y solo si f satisface las condiciones siguientes:
i) Para
todo x R, f (x) 0.
Z
ii)
f (u)du = 1.
f(x)
1
ba
f(x)
pp
pp
pp
pp
a
(a)
pp
pp
pp
pp
@
@
-1
(b)
Figura 2.3: Graficos de funciones de densidad.
o absolutamente continDefinici
on 2.9 Una variable aleatoria X es continua
ua si existe una funcion de densidad f tal que para todo a R
F (a) = P (X a) =
Z a
f (u)du.
Z b
a
f (u)du.
P (X B) =
f (u)du.
83
5. Por el teorema fundamental del calculo la funcion de distribucion F es derivable
en cada punto y de continuidad de la funcion de densidad f . En cada uno de estos
puntos se cumple que F 0 (y) = f (y), es decir que F es la primitiva de f .
6. La funcion de probabilidad es el concepto analogo a la funcion de densidad en el
caso discreto.
Variable Aleatoria Discreta
P (X t) =
P
xn t
pn
n=0 pn = 1
Rt
f (u)du
f (u)du = 1
Ejemplos 2.12
1. Sea X una variable aleatoria continua con funcion de densidad
(
f (x) =
(2.15)
Z 2
0
x3 x=2
2
8
3
x2
= c(2 4 8) = c = c = .
c(4 2 )
2
3 x=0
3
3
8
ii) P (X > 1) =
Z
1
3Z 2
1
f (u)du =
(4u 2u2 )du = .
8 1
2
f (x) =
e 100 si x 0
0
si x < 0
(2.16)
Z
0
= 100 = =
1
.
100
84
i) P (50 X 150) =
ii) P (X < 100) =
x
1 R 150 100
e
dx
100 50
x
1 R 100 100
e
dx
100 0
1
100
1
100
150
100e 100
x
100
100e 100
50
= e 2 e 2 = 0,384.
= e1 + 1 = 0,633.
3. Suponga que la funcion de densidad de una variable aleatoria X esta dada por
(
si x [0, 100]
0 en otros casos.
f (x) =
Halle P (2 X 3).
En primer lugar observamos que
Z 100
=1 =
1
,
100
por lo que
P (2 X 3) =
Z 3
f (x)dx =
Z 3
dx =
Z 3
1
dx =
100
4. Sea X una variable aleatoria continua con funcion de densidad
(
f (x) =
3
.
100
Determinamos el valor de :
Z
1
2
(x 2x2 )dx =
1
24
= 24.
f (x) =
1
ba
si x [a, b]
si x
/ [a, b],
(figura 2.3 (a)). En este caso la funcion de distribucion esta dada por
F (t) =
0
ta
ba
si t < a
si t [a, b)
si t b
85
F(x)
1
pppppppp
pp
##pp
pp
#
pp
#
pp
#
#
pp
#
p
P (X < 11) = 1.
y utilizaremos la notacion X N (, 2 ) para decir que X esta normalmente distribuida con parametros y 2 .
Comentarios.
1. La distribucion normal es tambien denominada distribucion de Laplace-Gauss.
2. En el caso en que = 0 y 2 = 1 se dice que X tiene distribucion normal estandar
o unitaria y se utiliza la notacion
1 Z t x2
1 x2
2
e 2 dx;
(x) = e ; y (t) =
2
2
86
para la funcion de densidad y la funcion de distribucion de X respectivamente.
3. Dado que f es claramente no negativa, para demostrar que es una funcion de
densidad es suficiente demostrar que su integral sobre R es igual a 1. Es decir,
Z
2
1 Z (x)
2 2 dx = 1.
f (x)dx =
e
esto
Z
1 Z y2
f (x)dx =
e 2 dy.
2
Demostrar que la integral del miembro de la derecha en esta u
ltima igualdad es igual
a 1, es equivalente a demostrar que
Z
y2
2
dy =
2.
esto es
I2 =
y2
dy = I =
Z Z
x2
2
e e
y2
2
dxdy =
x2
dx
Z Z
(x2 +y 2 )
2
y2
2
dy,
dxdy.
I =
Z Z 2
0
r2
rddr = 2
Z
0
r2
2
rdr = 2.
Proposici
on 2.4 Si X es una variable aleatoria normalmente distribuida con par
amet2
ros y , entonces Y = X + es una variable aleatoria normalmente distribuida
con par
ametros + y 2 2 .
Demostraci
on. Denotemos como FY a la funcion de distribucion de Y . Consideramos
el caso en que > 0. El caso en que < 0 es analogo y se deja al lector.
t
t
1 Z
FY (t) = P (Y t) = P (X + t) = P (X
)=
(x)2
2 2
(x)2
2 2
dx.
y dz = dx; donde
2
2
1 Z t ( z
1 1 Z t (z)
) 1
2
2
22 2
dx =
e
dz =
e
dz,
2
2
87
por lo tanto la funcion de densidad de Y es
(z)2
1
e 22 2 , de donde Y N ( + , 2 2 ).
fY (z) =
2
Un sencillo pero importante corolario de la proposicion anterior es que si X
N (, 2 ), entonces la variable aleatoria
X
1
1 2
= X+
N +
,
= N (0, 1).
2
Este hecho resulta muy u
til, pues hace posible que la distribucion de cualquier variable
2
aleatoria X N (, ) pueda expresarse en terminos de una normal estandar, ya que
Z=
X
t
t
) = (
).
Proposici
on 2.5 Para la distribucion normal estandar se cumple que
FX (t) = P (X t) = P (
1 Z t x2
1 Z t x2
2
(t) + (t) =
e dx + e 2 dx;
2
2
X3
3
23
X 3
53
1
2
2
1
<
<
) = P(
< Z < ) = ( ) ( )
3
3
3
3
3
3
3
2
1
= ( ) 1 + ( ) = 0, 7454 1 + 0, 6293 = 0, 3747.
3
3
X 3
P (X > 0) = P (
> 1) = 1 (1) = (1) = 0, 8413.
3
P (2 < X < 5) = P (
88
3. Variable Aleatoria Exponencial.
Una variable aleatoria continua X se dice que tiene distribucion exponencial o que
esta exponencialmente distribuida, con parametro > 0, si su funcion de densidad es
(
ex si x 0
f (x) =
(2.17)
0
si x < 0
En este caso la funcion de distribucion esta dada por
( Rt
0
F (t) = P (X t) =
ex dx si t 0
=
0
si t < 0
1 et si t 0
0
si t < 0
(2.18)
Ejemplos 2.15
1. En el ejemplo 2.10.1 se ha definido la variable X(t) =#terremotos en t semanas y puesto que X(t) P(2t), se tiene que la variable aleatoria T =tiempo hasta
el proximo terremoto tiene funcion de distribucion dada por FT (t) = 1 e2t ; es
decir, T es una variable aleatoria exponencial con par
ametro = 2.
2. La duracion de una llamada, en minutos, es una variable aleatoria exponencial
1
con par
ametro = 10
. Si una persona llega inmediatamente antes que usted a un
telefono p
ublico, encuentre la probabilidad de que usted tenga que esperar: i) mas de
10 minutos; ii) entre 10 y 20 minutos.
Sea X =la duracion de una llamada, entonces se quiere calcular:
i) P (X > 10) = 1 P (X 10) = 1 (1 e
ii)P (10 < X < 20) =
Z 20
1
10
10
10
10
) = e1 = 0, 368.
2
e 10 du = e 10 |20
+ e1 = 0, 23255.
10 = e
Z
0
Comentarios.
ey yt1 dy.
ex (x)t1
(t)
si x 0
si x < 0,
(2.19)
89
1. Una variable aleatoria gamma con parametros (1, ) es una variable aleatoria esponencial con parametro .
2. Si se integra por partes la funcion se obtiene que
(t) =
Z
0
ey yt1 dy = ey yt1 0 +
= (t 1)
Z
0
Z
0
ey (t 1)y t2 dy
P (X(t) = k) =
k=n
et
k=n
X
(t)k
=
gk (t).
k!
k=n
0
Como para cada k 1 la funcion gk es derivable y
k=n gk (t) converge uniformemente, la funcion de densidad de Tn , digamos fn , puede obtenerse derivando termino
a termino la serie que representa a la funcion de distribucion Fn , es decir
X
k=n
gk0 (t) = et
(t)n1
,
(n 1)!
90
5. Variable Aleatoria Cauchy.
Una variable aleatoria X se dice que tiene distribucion de Cauchy con parametro
R, si su funcion de densidad es
1
1
,
[1 + (x )2 ]
f (x) =
Ejemplos 2.16
1. Una aguja que puede girar en torno al punto (1, 0) del eje x se impulsa para
que gire y luego se la deja parar espont
aneamente. Sea el angulo que forma la aguja
con el eje x y supongamos que esta uniformemente distribuido sobre [ 2 , 2 ], es
decir que
F (t) =
t+ 2
si t < 2
si t [ 2 , 2 )
si t 2
1 arctg(t)
+
.
2
f (x) =
donde B(a, b) =
1
xa1 (1
B(a,b)
x)b1 si x (0, 1)
0
si x
/ (0, 1)
R 1 a1
(1 x)b1 dx se denomina funci
on beta.
0 x
Ap
endice.
Problema Famoso: La paradoja de Bertrand.
Considere una cuerda aleatoriade un circulo de radio r. Cual es la probabilidad de
91
que la longitud de la cuerda sea mayor que el lado del triangulo equilatero inscrito en
ese circulo?
Para resolver este problema debemos precisar que se entiende por cuerda aleatoria.
Soluci
on 1: La posicion de una cuerda puede ser determinada por su distancia al centro del circulo, que denotaremos por O. Esta distancia puede variar entre 0 y r. Ahora
consideremos un triangulo equilatero ABC inscrito en el circulo de radio r y sean a1 , a2
y a3 las distancias del centro a cada uno de los lados. Tenemos que: OA = OB = OC,
si OA1 es la mediatriz de AB, OA2 es la mediatriz de AC y OA3 es la mediatriz de
CB, entonces A1 es el punto medio de AB, A2 es el punto medio
de AC y A3 es el
punto medio de CB. Sea m = |AA1 |; entonces a1 = a2 =
a
=
a
=
r2 m2 y como
q 3
Se observa entonces que el resultado varia dependiendo del experimento que se use
para caracterizar una cuerda aleatoria.
92
Ejercicios 2.3
1. Sea X una variable aleatoria con funcion de densidad de probabilidad
(
f (x) =
i) Cual es el valor de c?
(2.20)
f (x) =
cxex/2 si x > 0
0
si x 0,
(2.21)
93
programa?
8. La altura, en pulgadas de un hombre de 25 a
nos es una variable aleatoria nor2
mal con par
ametros = 71 y = 6,25. Que porcentaje de hombres de 25 a
nos
miden mas de 6 pies 2 pulgadas? Que porcentaje de hombres de mas de 6 pies miden
m
as de 6 pies 5 pulgadas? Nota: un pie = 12 pulgadas.
9. El ancho, en pulgadas, de una ranura de una pieza de duraluminio forjado esta normalmente distribuido con = 0,9 y = 0,003. Los limites especificados son 0.9-0.005
a 0.9+0.005. Que porcentaje de piezas seran defectuosas? Cual es el maximo valor
M de que permitir
a no mas de un 1 % de piezas defectuosas cuando los anchos de
las ranuras estan normalmente distribuidos con par
ametros = 0,9 y = M ?
10. Sea X una variable aleatoria con distribucion normal estandard. Demuestre que:
i) P (|X| < k) = 2(k) 1 ii) P (|X| > k) = 2(1 (k)).
11. Si la variable aleatoria X ' N (1, 4), calcule: i) P (3 X 3);
ii) P (5 X 3); iii) P (1 X 0).
12. Demuestre que si X es una variable aleatoria exponencial con par
ametro , y
c > 0; entonces cX es exponencial con par
ametro /c.
13. El tiempo, en horas, requerido para reparar una maquina es una variable aleatoria
exponencialmente distribuida con par
ametro = 1/2.
i) Cual es la probabilidad de que el tiempo de reparaci
on sea mayor de 2 horas?
ii) Cual es la probabilidad condicional de que la reparaci
on tome al menos 10 horas,
dado que toma mas de 9 horas?
14. El n
umero de a
nos que un radio funciona esta exponencialmente distribuido con
par
ametro = 1/8. Cual es la probabilidad de que un radio funcione por mas de 8
a
nos?
15. Sea X una variable aleatoria de Cauchy con funcion de densidad de dada por:
f (x) =
1
, x R, > 0.
[1 + ((x )2 ]
94
Captulo 3
Esperanza y Varianza de Variables
Aleatorias.
I) Caso discreto.
Definici
on 3.1 Sea X una variable aleatoria discreta tal que su conjunto de valores es
{xn }n1 y su funcion de probabilidad {pn }n1 , donde pn = P (X = xn ). La esperanza
matem
atica o valor esperado de X es el n
umero denotado por E[X] y definido
como
E[X] =
xn P (X = xn ) =
n=0
xn p n ;
n=0
siempre y cuando la serie anterior sea convergente. En este caso se dice que existe la
esperanza matematica de X.
Observe que E[X] es un promedio ponderado de los valores de la variable aleatoria
X. En algunos casos E[X] se denomina media o media ponderada de X.
Ejemplos 3.1
1. Sea X el resultado de lanzar un dado perfecto. Entonces como pi = 61 para i =
1, . . . , 6
21
7
E[X] = 1p1 + 2p2 + 3p3 + 4p4 + 5p5 + 6p6 =
= .
6
2
2. Sea X una variable aleatoria de Bernoulli con par
ametro p =probabilidad de exito.
Es decir, X = 1 si ocurre un exito y X = 0 si ocurre un fracaso. Entonces
E[X] = 0(1 p) + 1p = p.
3. Sea X una variable aleatoria Binomial con par
ametros (n, p). Entonces
E[X] =
n
X
k=0
kP (X = k) =
n
n
n
X
X
k
pk (1 p)nk =
k=1
kn!
pk (1 p)nk
k!(n
k)!
k=0
95
96
=
n
X
(n 1)!n
ppk1 (1 p)nk
(k
1)!(n
k)!
k=1
= np
= np
n1
X
(n 1)!
pk (1 p)nk1
k=0 k!(n k 1)!
n1
X
k=0
n1 k
p (1
k
xf (x)dx;
siempre que la integral anterior sea finita. En este caso (E[X] < ) se dice que X
tiene esperanza o tambien que es integrable con respecto a la medida de probabilidad
dada.
Ejemplos 3.2
1. Si X es una variable aleatoria uniformemente distribuida sobre [a, b], entonces
E[X] =
Z b
a
1
x2
a+b
dx =
|ba =
.
ba
2(b a)
2
(x)2
(x)2
1
1 Z
2
2
E[X] =
x
dx =
(x + ) 22 dx
2
2
Z
2
(x)
(x)2
1
1 Z
2
2
dx +
=
(x )
22 dx
2
2
Z
2
(x)
(x ) 2
2
=
dx + =
Z
0
h x
xex dx =
ex 12 ex
i
0
1
.
97
Aplicaciones.
El juego de San Petersburgo. Se lanza una moneda perfecta hasta que salga
cara. Si esto ocurre en el iesimo lanzamiento usted recibira $2i . Sea X =ganancia
obtenida, entonces X toma los valores 2, 22 , . . . , 2k , . . . ,. Entonces la ganancia esperada es igual a
X
1
1
1
1 = .
E[X] = 2 + 22 2 + 23 3 . . . =
2
2
2
k=1
Es decir la esperanza de X no existe. Sin embargo, si se asume que la casa nunca se
arruina, esto tambien podria interpretarse como que la ganancia tiende a crecer sin
limites. En este caso, es razonable preguntar cuanto estara usted dispuesto a pagar
para entrar en el juego? Si usted paga $210 = $1024 por entrar, entonces para ganar
necesita que haya al menos 9 sellos consecutivos. La probabilidad de este evento es
menor o igual a 0,00195; que es bastante peque
no. Se presenta en este juego una
situacion paradojica, ya que, pese a que se tiene una ganancia esperada infinita, no
es razonable arriesgarse pues la probabilidad de ganar es muy peque
na.
Determinaci
on de Primas de Seguros. Una persona de 36 a
nos adquiere un
seguro de vida de $50.000 por 20 a
nos. Sea p36 = P (el individuo sobrevive mas de
20 a
nos). Cual debera ser la prima que cobre la compa
na para que la ganancia
esperada sea positiva?
Sea L la prima total a pagarse durante los 20 a
nos y sea Y =ganancia de la compa
na,
entonces
E[Y ] = Lp36 50,000(1 p36 ) > 0 L >
50,000(1 p36 )
.
p36
Juego justo e injusto. Suponga que X es una variable aleatoria que representa
la ganancia de un jugador en un juego de azar. Cuando X < 0 se considera que hay
perdida o que se paga una cuota para entrar en el juego. Decimos que el juego es
justoo equitativo, si E[X] = 0. Si E[X] 6= 0 decimos que el juego es injusto, siendo
E[X] > 0 cuando el juego es favorable al jugador y E[X] < 0 cuando el juego es
desfavorable al jugador.
Si consideramos el juego de Lotto consistente en acertar 6 n
umeros de 54, tenemos
que la probabilidad de ganar un juego es p = 1/25,827,165 ' 3,8 108 . Suponga que
la ganancia posible es de $10.000.000 y que se paga un dolar por 2 juegos. Entonces
' 0,999 y la probabilidad de ganar es
la oportunidad de perder es p1 = 25,827,163
25,827,165
8
p2 ' 7, 6 10 . Por lo tanto
E[X] = (1)(0,999) + 107 )7, 6 108 = ,999 + 0,76 = 0,239,
de donde se concluye que, de acuerdo al criterio dado, el juego es injusto y desfavorable
al jugador.
98
Lema 3.1 Si Y es una variable aleatoria continua, entonces
h i
E Y =
Z
0
P {Y > y}dy
P {Y < y}dy.
Demostraci
on.R Denotemos por fY la funcion de densidad de Y . Entonces puesto que
P {Y > y} = y fY (x)dx
Z
0
P {Y > y}dy =
Z Z
0
fY (x)dxdy.
P {Y > y}dy =
Z Z x
0
fY (x)dydx =
Z
0
xfY (x)dx.
(3.1)
P {Y < y}dy =
Z Z y
0
fY (x)dxdy =
Z 0 Z x
fY (x)dydx =
Z 0
xfY (x)dx.(3.2)
P {Y > y}dy
Z
0
P {Y < y}dy =
xfY (x)dx +
Z 0
xfY (x)dx.
h i
xfY (x)dx = E Y .
Proposici
on 3.1 Si X es una variable aleatoria continua con funcion de densidad
f , entonces para toda funcion a valores reales g se cumple que
h
E g(X) =
g(x)f (x)dx.
Demostraci
on. Por el lema anterior se tiene que
h
E g(X)
=
=
Z
0
Z Z
0
=
=
{x:g(x)>0}
Z
f (x)dxdy
{x:g(x)>y}
Z g(x)
{x:g(x)>0}
Z Z
0
f (x)dydx
g(x)f (x)dx +
f (x)dxdy
{x:g(x)<y}
Z g(x)
{x:g(x)<0}
{x:g(x)<0}
f (x)dydx
g(x)f (x)dx
g(x)f (x)dx.
Comentario: Existe una version del resultado anterior en el caso en que X es una
variable aleatoria discreta. La demostracion es sencilla y se deja como ejercicio.
99
Proposici
on 3.2 Si X es una variable aleatoria y a y b son constantes entonces
h
E aX + b = aE X + b
siempre que las esperanzas existan.
Demostraci
on. Caso discreto. Como pn = P { : X = xn } = P { : aX + b =
axn + b}, n 1, tenemos que
h
E aX + b =
(axn + b)pn = a
xn pn + b
n0
n0
pn = aE[X] + b.
n0
E aX + b =
xf (x)dx + b
f (x)dx = aE X + b.
Definici
on 3.3 Si X es una variable aleatoria con media E[X] = , entonces la
varianza de X, denotada V ar[X], se define como
h
V ar[X] = E (X E[X])2 .
La varianza de X es una medida de la dispersi
on de los valores de X alrrededor
de la media.
Proposici
on 3.3 V ar[X] = E[X 2 ] E[X] .
Demostraci
on. Utilizando la proposicion anterior, se tiene
h
E (X E[X])2
= E X 2 2XE[X]) + (E[X])2
2
2 h
2 y2
y2
y2
=
y e dy =
y e | +
e
dy
2
2
2 h
i
=
0 + 2 = 2 .
2
100
2. Sea X ' b(n, p). Sabemos que E[X] = np. Entonces
E[X 2 ] =
=
=
=
n
X
k=0
n
X
k 2 P (X = k) =
n
X
k2
k=1
n
k
pk (1 p)nk
n
X
n!
k n!
pk (1 p)nk =
pk (1 p)nk
(k 2 k + k)
k!(n
k)!
k!(n
k)!
k=0
k=0
n
X
k(k 1)
k=0
n
X
n!
pk (1 p)nk + E[X]
k!(n k)!
n!
pk (1 p)nk + E[X]
(k
2)!(n
k)!
k=2
= p2 n(n 1)
2
= p n(n 1)
n
X
(n 2)!
pk2 (1 p)nk + E[X]
(k
2)!(n
k)!
k=2
n
X
n2
k=2
k2
= p2 n(n 1) + np = np 1 + (n 1)p .
Por lo tanto
Definici
on 3.4 Dada una variable aleatoria X con varianza 2 , la desviaci
on tpica
o est
andar de X es igual a .
Este valor da una medida de la desviacion de los valores de la variable aleatoria con
respecto a su media. Cuanto menor es la desviacion estandar mas se aglutinan los
valores de la variable aleatoria en torno a la media.
El valor E[|X E[X]|] se denomina desviaci
on media absoluta.
101
Ejercicios 3.1
1. Sea X una variable aleatoria de Cauchy con par
ametro > 0; es decir, tal que la
funcion de densidad de X esta dada por:
f (x) =
1
, x R.
[1 + ((x )2 ]
f (x) =
donde (t) =
V ar[X].
0
t1
ex (x)
(t)
si x < 0
si x 0
(3.3)
R y t1
dy. a) Demuestre que f es una densidad. b) Halle E[X] y
0 e y
3. Halle la esperanza, la varianza y la desviacion estandar de cada una de las siguientes variables aleatorias:
i) X geometrica con par
ametro p (0, 1).
ii) X ' b(n, p) con p (0, 1).
iii) X ' P(), con > 0.
iv) X uniforma sobre [a, b].
v) X exponencial con par
ametro > 0.
vi) X gamma con par
ametros (t, ).
4. Sea X =# de caras obtenido, cuando se realizan dos lanzamientos independientes de una moneda insesgada (perfecta). Calcule E[X].
5. Si X es uniformemente distribuida sobre [0, 1], calcule E[eX ].
6. Sea X =resultado de lanzar un dado perfecto. Calcule V ar[X].
7. Uno de los n
umeros del 1 al 10 se selecciona aleatoriamente. Usted trata de adivinar
el n
umero haciendo preguntas cuyas respuestas seran sio no. Calcule el n
umero
esperado de preguntas que necesitar
a hacer en cada uno de los siguientes casos:
i) Su i-esima pregunta es: es el n
umero igual a i?
ii) Con cada pregunta usted trata de eliminar la mitad de los n
umeros que quedan.
8. Una muestra de 3 objetos es seleccionada aleatoriamente de una caja que contiene 20 objetos de los cuales 4 son defectuosos. Encuentre el n
umero esperado de
102
objetos defectuosos en la muestra.
9. Calcule E[X] si X tiene funcion de densidad:
(
cxex/2 si x > 0
0
si x 0,
(3.4)
(3.5)
i) f (x) =
(
ii) f (x) =
E g(x) =
X
{x:p(x)>0}
g(x)p(x).
103
3.1.
Distribuci
on Conjunta de Variables Aleatorias.
Comentarios.
1. Si definimos An = (X a, Y n), podemos verificar que para cada n 1
An1 An , por lo que
lm F (a, n) = n
lm P (An ) = P (n
lm An ) = P (X a, Y < ) = P (X a) = FX (a).
104
La verificacion para la segunda variable es analoga.
2. lmx F (x, y) = lmy F (x, y) = 0.
3. lmx lmy F (x, y) = 1.
4. Como F es creciente en ambas variables, entonces 0 F (x, y) 1 para cada x R
y y R.
5. F es continua a la derecha en ambas variables.
Nota. Contrariamente a lo que ocurre en el caso de una variable, estas propiedades
no caracterizan a una funcion de distribucion conjunta; es decir, se puede encontrar
una funcion que satisfaga las propiedades anteriores y que no sea una funcion de
distribucion conjunta. Considere por ejemplo la funcion:
(
F (x, y) =
1 si x + y 0
0 si x + y < 0
(3.7)
X
{y:p(t,y)>0}
p(x, t),
{x:p(x,t)>0}
respectivamente.
Ejemplos 3.4
1. Suponga que 3 bolas son seleccionadas aleatoriamente de una urna que contiene 3
bolas rojas, 4 blancas y 5 azules. Sean X =# bolas rojas e Y =# bolas blancas. Entonces la funcion de probabilidad conjunta de X e Y asi como tambien las funciones
de probabilidad marginales se pueden resumir en la tabla siguiente
105
i\j
P (X = i)
10
220
40
220
30
220
4
220
84
220
30
220
60
220
18
220
108
220
15
220
12
220
27
220
1
220
1
220
P (Y = j)
56
220
112
220
48
220
4
220
Definici
on 3.7 Se dice que las variables aleatorias X e Y son conjuntamente
continuas si existe una funcion f : R2 [0, ), tal que para todo (x, y) R2
F (x, y) =
Z y Z x
f (u, v)dudv.
P ((X, Y ) A) =
f (u, v)dudv =
Z bZ d
a
f (u, v)dvdu.
C2
2. Si X e Y son conjuntamente continuas ellas son continuas ya que para cada conjunto
de borel A
P (X A) = P (X A, Y (, )) =
Z Z
A
f (u, v)dvdu =
fX (x)dx,
106
R
donde fX (x) =
f (u, v)dv, la cual es efectivamente
una densidad, debido a que f
R
lo es. De manera analoga se tiene que fY (y) = f (u, v)du. Las funciones fX y fY
se denominan densidades marginales de X e Y respectivamente.
Ejemplos 3.5
1. Supongamos que la funcion de densidad conjunta de X e Y est
a dada por
(
f (x, y) =
(3.8)
Entonces
i. P (X > 1, Y 1) =
Z 1Z
0
= 2
= 2
Z 1
Z 1
0
f (x, y)dxdy =
e2y
{(x,y):x<y}
2y
Z
0
iii. P (X < a) =
Z aZ
0
2e
2ex2y dxdy
Z 1
0
e2y ex |
1 dy
f (x, y)dxdy =
2e2y dy
ex |y0 dy =
2e
ex dx dy = 2
Z Z
ii. P (X < Y ) =
Z 1Z
Z
0
x2y
Z y
0
ex2y dxdy
2e2y (1 ey )dy
2 3y
2
1
2e3y dy = e2y |
|0 = 1 = .
0 + e
3
3
3
dydx =
Z a
0
ex dx = ex |a0 = 1 ea .
f (x, y) =
en otros casos
X
,
Y
Z Z
X
t) =
e(x+y) dxdy
x
Y
{(x,y): y t}
Z Z ty
1
=
e(x+y) dxdy = 1
.
1+t
0
0
F X (t) = P (
Y
X
Y
1
, t > 0.
(1 + t)2
(3.9)
107
La nocion de distribucion conjunta de dos variables aleatorias se generaliza de
manera natural al considerar la distribucion conjunta de n variables aleatorias
X1 , X2 , . . . , Xn : para n
umeros reales a1 , a2 , . . . , an se define
F (a1 , a2 , . . . , an ) = P (X1 a1 , X2 a2 , . . . , Xn an ).
En este caso se dice que las variables aleatorias X1 , X2 , . . . , Xn son conjuntamente
continuas si existe una funcion f : Rn [0, ), tal que para todo (x1 , . . . , xn ) Rn
F (x1 , . . . , xn ) =
Z x1
...
Z xn
f (u, v)dudv.
3.1.1.
qk = P (S = sk ) =
pij .
Entonces
E[S] =
sk P (S = sk ) =
X
k
X
i
xi
X
j
pij +
X
j
yj
pij =
X
i
XX
i
pij =
X
i
sk pij
(xi + yj )pij =
sk
(xi + yj )pij
xi pX (i) +
X
j
108
II) Caso Continuo. Sean X e Y variables aleatorias conjuntamente continuas con
funcion de densidad conjunta f , y sea S = X + Y . Entonces la funcion de distribucion
de S esta dada por
Z Z
FX+Y (t) = P (S t) = P (X + Y t) =
Z Z tx
f (x, y)dydx.
f (x, y)dy =
Z t
f (x, z x)dz;
de aqui que
FX+Y (t) =
Z Z t
donde fZ (z) =
f (x, z x)dzdx =
Z t
f (x, z x)dxdz =
Z t
fZ (z)dz;
E[X + Y ] = E[Z] =
=
Z Z
zfZ (z)dz =
f (x, z x)dxdz
zf (x, z x)dxdz.
Z Z
f (x, y)dydx +
xfX (x)dx +
f (x, y)dxdy
2) Monotona de la Esperanza.
Proposici
on 3.5 Sean Y y Z variables aleatorias tales que Y > Z, entonces E[Y ]
E[Z].
Demostraci
on. Utilizando la proposicion anterior tenemos que
E[Y ] E[Z] = E[Y Z] =
ya que y z 0.
Z Z
109
Teorema 3.1 Esperanza de una Funcion de Variables Aleatorias.
Sean X1 , X2 , . . . , Xn variables aleatorias conjuntamente continuas con funcion de densidad dada por f : Rn R y sea g : Rn R una funcion lo suficientemente
regular para que Y = g(X1 , X2 , . . . , Xn ) sea una variable aleatoria. Entonces el valor
esperado de Y se calcula mediante la formula
Z
E[Y ] =
...
Rn
...
Rn
Demostraci
on. Paso 1. Observe que, en virtud de la proposicion anterior, es suficiente
demostrar el teorema en el caso en que g 0, ya que si g no es no negativa se puede
escribir como una diferencia de funciones no negativas, en efecto g = g + g , donde
(
+
g (x) =
y
g (x) =
g(x) si g(x) 0
0
si g(x) < 0
(3.10)
g(x) si g(x) 0
0
si g(x) > 0
(3.11)
son la parte positiva y la parte negativa de g respectivamente. En este caso se tendra que, denotando X = (X1 , . . . , Xn ) y x = (x1 , . . . , xn ), y usando la proposicion
3
Z
+
Rn
Rn
g (x)f (x)dx
Rn
g (x)f (x)dx
Rn
g(x)f (x)dx.
k
2m
k
k
k+1
si m g(x) < m , k = 0, 1, . . . .
m
2
2
2
g(x) <
g(x)
k
2m
1
2m
se tiene que
1
k
(3.12)
1
gm (X()) g(X()), para todo ,
2m
(3.13)
110
donde X() = (X1 (), . . . , Xn ()). Tomando esperanza en esta u
ltima expresion y
utilizando la monotona de la esperanza matematica, tenemos que
1
E[g(X)] m E[gm (X)] E[g(X)],
(3.14)
2
Multiplicando en (3.12) por f , que es no negativa, obtenemos
g(x)f (x)
1
f (x) gm (x)f (x) g(x)f (x),
2m
por lo que
Z
Z
Z
1
g(x)f (x)dx
f (x)dx
gm (x)f (x)dx
g(x)f (x)dx.
Rn
Rn 2m
Rn
Rn
Tomando limite en m
Z
Z
hZ
1 i
g(x)f (x)dx m lm
g(x)f (x)dx.
lm
gm (x)f (x)dx lm
m
m Rn
m Rn
2
Rn
Esto significa que
Z
lm
n gm (x)f (x)dx =
R
por lo que sera suficiente demostrar que
m
Rn
g(x)f (x)dx;
E[g(X)] = m
lm
gm (x)f (x)dx.
Rn
Por otra parte, tomando limite en m en (3.14) obtenemos que
h
lm E[g(X)]
(3.15)
1 i
lm E[gm (X)] lm E[g(X)],
m
m
2m
es implica que
E[g(X)] = lm E[gm (X)].
m
E[gm (X)] =
gm (x)f (x)dx.
Rn
Paso 3. Observando que gm (X) es una variable aleatoria discreta, se tiene
E[gm (X)] =
k X
k + 1
k k
P
g
(X)
=
=
P
g(X)
<
m
m
m
2m
2m
2m
k=0 2
k=0 2
X
k
k k+1 X
k Z
=
P X g ([ m , m )) =
f (x)dx
m
m g 1 ([ k , k+1 ))
2
2
2m 2m
k=0 2
k=0 2
X
k
Z
X
k k+1
1
k=0 g ([ 2m , 2m ))
gm (x)f (x)dx =
Rn
gm (x)f (x)dx.
111
3.1.2.
112
Distribuci
on Conjunta de Variables Aleatorias Independientes.
Proposici
on 3.6 Sean X e Y variables aleatorias independientes con funcion de
distribucion conjunta F (a, b) = P (X a, Y b). Entonces
F (a, b) = P (X a)P (Y b) = FX (a)FY (b), para todo par (a, b).
Si X e Y son conjutamente continuas e independientes con densidad conjunta f
entonces se cumple que f (x, y) = fX (x)fY (y).
Ejemplos 3.7
1. Un hombre y una mujer deciden encontrarse en un lugar. Si cada uno de ellos
llega a una hora uniformemente distribuida entre las 12 m y la 1 pm, encuentre la
probabilidad de que el primero en llegar tenga que esperar mas de 10 minutos.
Sean X =tiempo, despues de las 12m, que tarda el hombre en llegar y Y =tiempo,
despues de las 12m, que tarda la mujer en llegar. Entonces X e Y son variables
aleatorias independientes, cada una uniformemente distribuida en un intervalo de 60
minutos. Por lo tanto se quiere determinar
P (|XY | > 10) = P (XY > 10)+P (XY < 10) = 2
Z 60 Z y10
1 2
10
60
dxdy =
25
.
36
pp
pp
pp
p
pp
pp
X pppqp h
pp
ppp
p
Dp
ppp
pp
en [0, D2 ].
El segmento perpendicular trazado desde el punto medio de la aguja a la recta mas
cercana a esta tiene longitud X. Consideramos el triangulo formado por este segmento, la aguja y la recta. Denotando por h la longitud de la hipotenusa de este triangulo,
113
se tiene que la aguja intercepta a la recta si y solo si h
probabilidad de que la aguja intercepte a la recta es
Z Z
X
L
P
=
sen()
2
X
L
sen()
2
Z Z
0
Como h =
X
,
sen()
la
Z Z
L
.
2
f (y, x)dydx =
L
sen(y)
2
X
L
sen()
2
f (y)fX (x)dydx
2 ZL
2L
2
dxdy =
sen(y)dy =
.
D
D 0 2
D
Z Z t
donde fZ (z) =
f (x, z x)dzdx =
Z t
f (x, z x)dxdz =
Z t
fZ (z)dz;
s t Z a a+y y
s t ea Z a
=
e
e (a y)s1 y t1 dy =
(a y)s1 y t1 dy
(s)(t) 0
(s)(t) 0
y
s t ea Z a s1
a (1 )s1 y t1 dy.
=
(s)(t) 0
a
Haciendo el cambio de variables x =
y
a
tenemos que
s t ea as+t1 Z 1
fX+Y (a) =
(1 x)s1 xt1 dx
(s)(t)
0
s t Z 1
= ea as+t1
(1 x)s1 xt1 dx = K ea as+t1 .
(s)(t) 0
114
Como fX+Y es una densidad, la constante K debe satisfacer
Z
0
K ea as+t1 da = 1 = K = R
0
a as+t1 da
a s+t1
s+t1
us+t1 du
s+t1
s+t1
0
0
Z
1
(s + t)
=
eu us+t1 du = s+t .
s+t
da =
En consecuencia
da =
eu
s+t
s+t
K=
=
.
(s + t)
(s + t 1)!
fX+Y (a) = ea
s+t1
= X + Y (s + t, ).
(s + t)
i h
i h i
En particular E XY = E X E Y .
Demostraci
on.
1) Caso discreto. Sean X e Y discretas con funcion de probabilidad p(x, y). Entonces
h
E g(X)h(Y )
XX
i
XX
i
i h i
E g(X)h(Y )
=
=
Z Z
g(x)fX (x)dx
Z Z
115
Definici
on 3.9 Sean
X
h
i e Y variables aleatorias dadas. La covarianza entre X e
Y , denotada Cov X, Y , se define como
h
Cov X, Y
Y =
0 si X 6= 0
1 si X = 0.
Entonces
XY
= 0 por lo que E[XY ] = 0; ademas E[X] = 1
+ 13 + 0 13 = 0 por lo que
3
h
i
Cov X, Y = 0. Sin embargo, X e Y no son independientes ya que:
1
3
La nocion de covarianza permite obtener una expresion para
suma de variables aleatorias:
P (X = 0, Y = 0) = 0 6= P (X = 0)P (Y = 0) =
V ar X + Y
2 i
= E X + Y E[X + Y ]
h
= E X E[X]
2
.
3
la varianza de la
2 i
= E X E[X] + Y E[Y ]
2
+ Y E[Y ]
+ 2 X E[X] Y E[Y ]
n
hX
i=1
Xi =
n
X
V ar[Xi ] + 2
i=1
XX
Cov[Xi , Xj ].
i<j
n
hX
i=1
Xi =
n
X
i=1
V ar[Xi ].
116
Definici
on 3.10 Dadas dos variables aleatorias X e Y el coeficiente de correlaci
on
o correlaci
on de X e Y , denotado por (X, Y ), se define como
(X, Y ) = q
Cov[X, Y ]
V ar[X]V ar[Y ]
siempre que
V ar[X] 6= 0 y V ar[Y ] 6= 0.
Proposici
on 3.9 Dadas variables aleatorias X e Y , se cumple que
1 (X, Y ) 1.
2
= V ar[X] y Y2 = V ar[Y ], entonces
Demostraci
on. Sean X
0 V ar
hX
Y i V ar[X] V ar[Y ]
Cov[X, Y ]
=
+
+2
= 1 + 1 + 2(X, Y );
2
2
Y
X
Y
X Y
hX
Cov[X, Y ]
Y i V ar[X] V ar[Y ]
+
2
=
= 1 + 1 2(X, Y );
2
2
Y
X
Y
X Y
de donde (X, Y ) 1.
3.1.3.
El Teorema de la funci
on inversa. Preliminares.
Sea S Rn abierto y g : S Rn ; g = (g1 , g2 , . . . , gn ). Diremos que g C 1 si
todas las componentes de g tienen derivadas parciales continuas; es decir, para cada
g
i {1, . . . , n}, x
existe y es continua para j {1, . . . , n}.
j
Si x = (x1 , x2 , . . . , xn ), se define la matriz jacobiana de g en x, como la matriz
nn
g
g1
g1
1
(x) x
(x) . . . x
(x)
x
n
1
2
g2
g2
g2
(3.16)
.
.
.
.
..
..
..
..
nn
xj
gn
gn
n
(x) g
(x) . . . x
(x) nn
x1
x2
n
El determinante de la matriz jacobiana se denomina determinante jacobiano de g (o
simplemente jacobiano de g y se denota por
Jg (x) =
g1
x1
g2
x1
g1
x2
g2
x2
...
...
..
.
g1
xn
g2
xn
gn
x1
gn
x2
...
gn
xn
..
.
..
.
..
.
(3.17)
117
Ejemplos 3.9
Sea g : R2 R2 definida por g(x, y) = (ex+2y , sen(y + 2x)). El jacobiano de g
en el punto ( 2 , 0) es el determinante
e2
2e 2
Jg ( , 0) =
= 3e 2
2cos()
cos()
2
(3.18)
h(V )
h(V )
f (x)dx.
Entonces
Z
h(V )
f (x)dx =
f (h(y))|Jh (y)|dy =
118
y sea h : V U la inversa local de g (dada por el teorema de la funcion inversa).
La variable aleatoria Y puede interpretarse como un cambio de coordenadas aplicado
a X y podemos obtener su funcion de densidad en vista de que
Z
P (Y V ) = P (g(X) V ) = P (X h(V )) =
Z
h(V )
f (x)dx =
f (h(y))|Jh (y)|dy.
Por lo tanto
(
fY (y1 , . . . , yn )) =
Ejemplos 3.10
y2 = g2 (x1 , x2 ) = x1 x2 .
Entonces
y1 + y2 = x1 + x2 + x1 x2 = 2x1
= x1 =
y1 y2 = x1 + x2 x1 + x2 = 2x2
y1 + y2
= h1 (y1 , y2 )
2
= x2 =
y1 y2
= h2 (y1 , y2 ).
2
Adem
as tenemos que
Jh (y1 , y2 ) = Jg (x1 , x2 )
g1 1
x2
g2
x2
g1
x1
g2
x1
1 1
=
1 1
1
.
2
(3.20)
Por lo tanto
(
1
f
2 X1 ,X2
y1 +y2 y1 y2
, 2
2
si y1 = g1 (x1 , x2 ) y y2 = g2 (x1 , x2 )
0
en otro caso
(3.21)
En particular si X1 y X2 son independientes y ambas uniformemente distribuidas
sobre (0, 1), tendremos que
fY1 ,Y2 (y1 , y2 )) =
2
< 1 y 0 < y1 y
<1
2
en otro caso
si 0 <
1
2
0
(
y1 +y2
2
1
2
119
Si X1 y X2 son independientes con densidad exponencial con par
ametros 1 y 2
respectivamente, entonces
(
1 2
2
(3.22)
en otro caso
v = g2 (x, y) =
x
;
x+y
por lo tanto
x = u v = h1 (u, v)
Jh (u, v) = Jg (x, y)
=
=
g1 1
y
g2
y
g1
x
g2
x
(x + y) 1
(x + y)2
(x+y)x
(x+y)2
0x
(x+y)2
y
(x+y)2
x
(x+y)2
= (x + y) = u.
Entonces
(
euv (uv)1
=
=
()
u(1v)
(u(1v))1
e
u si 0 < v < 1 y 0 u
()
0
en otro caso
eu (uv)+1
(+)
v 1 (1v))1 (+)
u
()()
si 0 < v < 1 y 0 u
en otro caso.
120
Ejercicios 3.2
1. Un grupo de N hombres lanza sus sombreros en el centro de un salon. Los sombreros
se mezclan y cada hombre selecciona uno al azar. a) Encuentre el n
umero esperado
de hombres que selecciona su propio sombrero. b) Calcule la varianza del n
umero
de hombres que selecciona su sombrero.Sugerencia: considere las variables aleatorias
definidas como:
(
Xi =
(3.23)
para i = 1, . . . , N .
2. Binomial Negativa. Si se realizan ensayos independientes de Bernoulli, con probabilidad p de exito, determine el n
umero esperado de ensayos requeridos para obtener
r exitos. Sugerencia: considere las variables aleatorias siguientes:
X1 = # de ensayos para primer exito;
X2 = # de ensayos, despues del primer exito, para el segundo exito; . . .
Xi =# de ensayos, despues del exito i 1, para obtener el i-esimo exito.
3. Si X e Y son identicamente distribuidas, no necesariamente independientes, demuestre que Cov[X + Y, X Y ] = 0.
4. Si E[X] = 1 y V ar[X] = 5 encuentre: a) E[(X + 2)2 ]. b) V ar[4 + 3X].
Sugerencia: Demuestre que V ar[aX + b] = a2 V ar[X].
5. Sea X una variable aleatoria binomial negativa (ver ejercicio anterior). Halle
V ar[X].
6. Demuestre que: a) Cov[a + bX, c + dY ] = bdCov[X, Y ].
b) Cov[X + Y, Z] = Cov[X, Z] + Cov[Y, Z].
P
Pn Pm
P
c) Cov[ ni=1 Xi , m
j=1 Yj ] =
i=1
j=1 Cov[Xi , Yj ].
7. Sean X =# de veces que aparece 1 en n lanzamientos de un dado simetrico y
Y =# de veces que aparece 2 en n lanzamientos de un dado simetrico. Halle la
Cov[X, Y ]. Use la parte c) del ejercicio anterior.
8. Sean X1 , X2 , . . . , Xn variables aleatorias independientes e identicamente distribuidas
= 1 Pni=1 Xi . Demuestre que: a) E[X]
= .
con media y varianza 2 . Sea X
n
P
n
2
2
2
] = (n 1) .
= /n. c) E[ i=1 (Xi X)
b) V ar[X]
121
9. Sea Y = a + bX. Demuestre que
(
(X, Y )) =
1 si b > 0
1 si b < 0
(3.24)
a) f (x) =
(
g(x) =
1 si x [1, 2]
0 en otros casos
1 si x [2, 1]
0 en otros casos
(
1 si x 0
0 si x < 0
b) f (x) = g(x) =
(3.26)
(3.27)
(3.28)
donde k n y k m.
k
X
n
m
i=0
ki
122
17. Sean X1 , X2 , . . . , Xn variables aleatorias independientes todas ellas exponencialmente distribuidas con par
ametro . Halle la distribucion de X1 + X2 + . . . + Xn .
Sugerencia: Observe la relacion entre las variables gamma y exponencial.
18. Sean X1 y X2 variables aleatorias independientes con distribucion de Poisson
con par
ametros 1 y 2 respectivamente. Demuestre que X1 + X2 tiene distribucion
de Poisson con par
ametro 1 + 2 .
19. Si X esta uniformemente distribuida sobre (0, 1) y Y esta exponencialmente
distribuida con par
ametro = 1, encuentre la distribucion de a) Z = X + Y , b)
Z = X/Y . Asuma independencia.
20. Si X e Y son variables aleatorias independientes ambas uniformemente
dis
2
tribuidas sobre (0, 1), encuentre la funcion de densidad conjunta de R = X + Y 2
y = tan1 (Y /X).
21. Si X e Y tienen funcion de densidad conjunta
f (x, y) =
1
x2 y 2
para x 1, y 1 ,
123
una tabla que muestre la funcion de masa de probabilidad conjunta para (H, V ) y las
funciones de masa de probabilidad marginales.
27. En una comunidad las familias adquieren solo dos tipos de mascota: perros y
gatos. Cada mascota(perro o gato) es adquirida independientemente y con la misma
probabilidad. Se sabe que un 40 % de las familias no tiene mascota, 30 % tiene 1 mascota, 20 % tiene 2 mascotas y 10 % tiene 3 mascotas. Si C =# de perros y G =# de
gatos en una familia; halle la funcion de probabilidad conjunta de (C, G) y calcule el
n
umero esperado de perros.
28. Se lanzan dos dados perfectos y distintos. Sea X =# de dados que caen en un
n
umero impar y Y = suma de los dados. (i) Halle la funcion de probabilidad conjunta
de (X, Y ). (ii) Halle la probabilidad condicional de X dado que Y = 2.
29. Se lanzan dos dados perfectos, uno rojo y uno verde. Sean X =resultado del
dado rojo y Y =menor de los resultados. (i) Halle la funcion de probabilidad conjunta de (X, Y ). (ii) Halle la funcion de probabilidad conjunta de X dado que Y = y.
(iii) Calcule V ar[Y ].
30. Dos dados simetricos son lanzados. Sean X =menor valor obtenido y Y =mayor
valor obtenido. (i) Halle la funcion de probabilidad conjunta de (X, Y ). (ii) Halle
V ar[Y ].
31. Considere un grupo de cartas que consiste en J, Q, K y A de las cuatro pintas.
Se reparte una mano de 2 cartas. Sean X =# de diamantes y Y =# de corazones.
Obtebga la funcion de probabilidad conjunta de (X, Y ) y calcule V ar[X].
32. Considere un circulo de radio R y suponga que un punto del circulo se escoge
aleatoriamente de manera tal que todas las regiones dentro del circulo tienen igual
probabilidad de contener el punto. Es decir, que el punto esta uniformemente distribuido dentro del circulo. Suponga que el centro del circulo es el origen de coordenadas
y defina X e Y como las coordenadas del punto. Entonces la funcion de densidad
conjunta esta dada por
(
f (x, y) =
c si x2 + y 2 R2
0 si x2 + y 2 > R2
(3.29)
124
hasta que el primer defectuoso es encontrado y N2 =# de pruebas adicionales realizadas hasta que el segundo defectuoso es encontrado. Encuentre la funcion de masa
de probabilidad conjunta de (N1 , N2 ). Haga una tabla.
34. La funcion de densidad de probabilidad conjunta de X y Y esta dada por:
f (x, y) = c(y 2 x2 )ey , y x y, 0 < y < .
a) Encuentre el valor de c. b) Encuentre las densidades marginales de X y Y .
35. La funcion de probabilidad conjunta de X e Y est
a dada por
f (x, y) = e(x+y) ,
0 x < , 0 y < .
X
.
Y
36. Se estima que 45 % de los clientes que entran a una tienda de televisores comprar
a un televisor normal, 15 % comprar
a un televisor con reproductor de video incorporado y 40 % no comprar
a nada. Si 5 clientes entran hoy, cual es la probabilidad
de que se vendan exactamente 2 televisores normales y 1 con video incorporado?
125
3.1.4.
Distribuci
on Condicional de Variables Aleatorias.
I) Caso Discreto.
Definici
on 3.11 Sean X e Y variables aleatorias discretas con funciones de probabilidad pX y pY respectivamente. Se define la funci
on de probabilidad condicional
de X dado que Y = y como
= y) =
p(x, y)
P (X = x, Y = y)
=
; siempre que pY (y) > 0.
P (Y = y)
pY (y)
La funci
on de probabilidad condicional de Y dado que X = x se define de
manera analoga.
Definici
on 3.12 Sean X e Y variables aleatorias discretas con funciones de probabilidad pX y pY respectivamente. Se define la funci
on de distribuci
on de probabilidad condicional de X dado que Y = y como
X
sx
pX|Y (s|y) =
P (X = s|Y = y).
sx
Ejemplos 3.11
1. Sean X e Y variables aleatorias con funcion de probabilidad conjunta p(x, y) definida como
p(0, 0) = 0,4; p(0, 1) = 0,2; p(1, 0) = 0,1; p(1, 1) = 0,3.
La funcion de masa de probabilidad condicional de X dado que Y = 1 est
a dada por
1)
pX|Y (x|1) = p(x,
;
p (1)
para x = 0, 1.
En este caso
por lo que
1)
3
pX|Y (1|1) = p(1,
= .
p (1)
5
Y
2) Caso Continuo.
Definici
on 3.13 Sean X e Y variables aleatorias conjuntamente continuas con funcion de densidad conjunta f (x, y). Entonces la funci
on de densidad de probabilidad condicional de X dado que Y = y, esta dada por
126
Definici
on 3.14 Sean X e Y variables aleatorias conjuntamente continuas con funcion de densidad conjunta f (x, y). Entonces la funci
on de distribuci
on condicional de X dado que Y = y, se define como
Z a
f X|Y (s|y)ds.
P (X A|Y = y) =
f X|Y (s|y)ds.
Ejemplos 3.12
1. La densidad conjunta de X e Y esta dada por
(
f (x, y)) =
12
x(2
5
fY =
Z 1
12
0
Por lo tanto
f X|Y (x|y) =
x(2 x y)dx =
12
x(2 x
5
12 43y
5
6
y)
12 (4 3y)
.
5
6
6x(2 x y)
.
4 3y
f X|Y (x|y), segun sea el caso. Tenemos entonces que, en el caso discreto
E[X|Y = y] =
X
x
xpX|Y (x|y).
127
Mientras que en el caso continuo
E[X|Y = y] =
xf X|Y (x|y)dx.
Ejemplos 3.13
1. Sean X e Y variables aleatorias conjuntamente continuas con densidad conjunta
(
x
1 y y
e e
si 0 < x < , 0 < y <
y
(3.30)
f (x, y) =
0
en otros casos
Hemos visto que
x
f X|Y (x|y) =
e y
y
Z
0
e y
y
dx = y
Z
0
ueu du = y.
Proposici
on 3.10 Dadas variables aleatorias X e Y , E[X] = E E[X|Y ] .
Demostraci
on
a) Sean X e Y variables aleatorias discretas, con funciones de probabilidad
pX (n) = P (X = xn)
pY (n) = P (Y
= yn )
respectivamente. Entonces
h
E E[X|Y ]
X
n1
xm
m1
p(m, n) =
n1
X
m1
X X
xm
n1 m1
p(m, n) p (n)
pY (n) Y
xm pX (m) = E[X].
E E[X|Y ]
=
=
=
Z Z
Z Z
xf X|Y (x|y)dx
f Y (y)dy
f Y (y)
xf X (x)dx = E[X].
128
Ejercicios 3.3
1. Se escoge un n
umero X aleatoriamente de el conjunto A = {1, 2, 3, 4, 5}. Luego
se escoge un n
umero Y del subconjunto de A de n
umeros no mayores que X.
i) Halle la funcion de probabilidad conjunta de X e Y .
ii) Halle la funcion de
probabilidad condicional de X dado que Y = i, i = 1, . . . , 5.
iii) Diga si X e Y son independientes y porque.
2. Sea U una variable aleatoria uniformemente distribuida sobre (0, 1). Calcule la
distribucion condicional de U dado que: a) U > a; b)U < a; donde 0 < a < 1.
3. La densidad de probabilidad conjunta de X y Y est
a dada por
6
xy
f (x, y) = (x2 + ), 0 < x < 1, 0 < y < 2.
7
2
i) Encuentre P (Y > 12 |X < 12 ). ii) Halle P (X > Y ).
iii) Calcule la funcion de densidad de X.
4. Se lanzan dos dados perfectos y distinguibles. Sea X =el mayor valor obtenido
y sea Y =el menor valor obtenido. Halle la funcion de probabilidad condicional de Y
dado que X = i, i = 1, 2, . . . , 6. Diga si las variables aleatorias son independientes.
Justifique su respuesta.
5. La funcion de probabilidad conjunta de X e Y esta dada por:
1
1
1
1
p(1, 1) = ; p(1, 2) = ; p(2, 1) = ; p(2, 2) = .
8
4
8
2
Halle la funcion de probabilidad de X dado que Y = i para i = 1, 2.
6. La funcion de densidad conjunta de X e Y est
a dada por
f (x, y) = xex(y+1) , x > 0, y > 0.
i) Encuentre la densidad condicional de X dado que Y = y y la densidad condicional
de Y dado que X = x.
ii) Encuentre la funcion de densidad de Z = XY .
7. La funcion de densidad conjunta de X e Y est
a dada por
f (x, y) = c(y 2 x2 )ey , y x y, 0 < y < .
Encuentre la distribucion condicional de X dado que Y = y.
129
8. Un dado perfecto es lanzado sucesivamente. Sean X =# lanzamientos para obtener
un 6 e Y =# lanzamientos para obtener un 5. Encuentre (a) E[X]; (b) E[X|Y = 1];
y (c) E[X|Y = 5].
9. Una urna contiene 4 bolas blancas y 6 negras. Se sacan, sin reemplazamiento,
3 bolas; y luego, tambien sin reemplazamiento 5 bolas. Sean X =# bolas blancas en
las primeras 3 extracciones e Y =# bolas blancas en las u
ltimas 5 extracciones. Halle
E[X|Y = i], para i = 1, 2, 3, 4.
10. La densidad conjunta de X e Y esta dada por
x
f (x, y) =
e y ey
y
ey
y
130
Captulo 4
Teoremas Limite
4.1.
Funci
on Generadora de Momentos.
Sea X una variable aleatoria que toma solo valores enteros no negativos y sea
aj = P (X = j),
para j 0,
ai z i .
i=0
Como
i=0
ai = 1 tenemos que
|g(z)|
i=0
por lo que la serie de potencias g(z) converge siempre que |z| 1. Esto implica que
para |z| 1 la serie g(z) puede ser diferenciada termino a termino. Evaluando g(z)
y sus sucesivas derivadas en z = 0 se obtiene
g(0)
g 0 (z)
g 00 (z)
g 000 (z)
..
.
(n)
g (z)
...
=
=
=
=
a0
a1 + 2a2 z + 3a3 z 2 + . . . = g 0 (0) = a1
2a2 + 3 2a3 z + 4 3a4 z 2 . . . = g 00 (0) = 2a2
3 2a3 + 4 3 a4 z . . . = g 000 (0) = 3 2a3
131
132
Por lo tanto, a partir de la funcion g se puede obtener la funcion de probabilidad
de X evaluando en 0 las sucesivas derivadas de g; esto significa que la funcion g en
cierto modo caracteriza la funcion de distribucion de X.
Definici
on 4.1 Dada una variable aleatoria X cuyos valores son enteros no negativos, se define la funci
on generadora de momentos
o funci
on generatriz de
X como la serie de potencias
g(z) =
ai z i .
i=0
Definici
on 4.2 Dada una variable aleatoria X y un entero k > 0, la esperanza E[X k ]
se denomina momento de orden k
o k-
esimo momento de X. Asi mismo la
k
esperanza E[(X E[X]) ] se denomina momento centrado de orden k de X.
Si evaluamos las derivadas de g(z) en z = 1 tenemos que
g 0 (z) = a1 + 2a2 z + 3a3 z 2 + . . . = g 0 (1) =
iai = E[X]
i=1
00
g (1) =
X
i=0
g 000 (1) =
i(i 1)ai =
i ai
i=0
i=0
i=0
..
.
Esto significa que tambien pueden obtenerse los momentos de cualquier orden evaluando las derivadas de la funcion generadora de momentos en z = 1
Ejemplos 4.1
1. Sea X una variable aleatoria binomial, X b(n, p). Entonces la funcion generadora de momentos de X es igual a
g(z) =
n
X
n
k=0
pk (1 p)nk z k =
n
X
n
k=0
Por lo que
g 0 (z) = np(pz + 1 p)n1 = g 0 (1) = np = E[X]
g 00 (z) = n(n 1)p2 (pz + 1 p)n2 = g 00 (1) = n(n 1)p2
133
En este caso
= np(1p).
p X
pz
z =
[(1 p)z]k =
.
1 p k=1
1 (1 p)z
k1 k
p(1 p)
k=1
(j)
(0)
gX (z) =
ai z i = gY (z) =
i=0
bi z i = d(z) =
i=0
bi ai z i = 0.
i=0
Esto implica que d(j) (z) = 0, en particular d(j) (0) = j!(bj aj ) = 0; es decir, aj = bj
para todo j 0, por lo que X e Y estan identicamente distribuidas.
Proposici
on 4.1 Sean X1 , . . . , Xn variables aleatorias independientes con valores
enteros no negativos y sean g1 , . . . , gn sus funciones generatrices. Entonces la funcion
generatriz de la suma X1 + . . . + Xn es el producto de las funciones generatrices
g1 g2 . . . gn .
Demostraci
on 1. Supongamos que n = 2. Sean a
= (aj )j1 y b = (bj )j1 , donde para
cada j 1, aj = P (X1 = j) y bj = P (X2 = j). Entonces
P (X1 +X2 = k) =
k
X
P (X1 = j, X2 = kj) =
j=0
k
X
j=0
k
X
j=0
P (X1 + X2 = k)z k =
k=0
y
g(z)h(z) =
X
j=0
aj z j
ck z k ;
k=0
X
k=0
bk z k =
X
k=0 j=0
aj bk z j+k =
X
l=0
cl z l .
aj bkj ;
134
Por lo tanto el resultado es valido para n = 2. Para n N cualquiera el resultado se
obtiene por induccion sobre n.
Demostraci
on 2. Podemos escribir para z R:
g(z) =
aj z =
j=0
P (X = j)z j = E z X ,
j=0
i h
Ejemplos 4.2
1. Sea X la variable aleatoria binomial negativa con par
ametros (n, p), es decir X =#
ensayos requeridos para obtener n exitos siendo p la probabilidad de exito en cada ensayo. Entonces X = X1 +. . .+Xn donde Xi =# ensayos requeridos, despues del exito
i-1, para obtener el i-esimo exito. Las variables Xi son independientes y tienen distribucion geometrica con par
ametro p y funcion generatriz g(z); por lo que la funcion
generadora de momentos de X es igual a
h
in
pz
h(z) = g(z)n =
.
1 (1 p)z
Tenemos ademas que
E[X] = h0 (1) = n
4.1.1.
p2 + p p2
p2
n
.
p
C
alculo de Momentos.
ext P (X = x)
{x:P (X=x)>0}
(t) = E z X = E etX =
etx f (x)dx
si X es discreta
135
Comentarios.
- La funcion generatriz existe siempre que X tome valores no negativos, en el caso continuo, esto significa que f (u) = 0 para todo u < 0. De lo contrario la esperanza
de Z X podria no existir.
- Con esta definicion de la funcion generatriz no es tan sencillo obtener los valores
de la funcion de probabilidad o la funcion de densidad; sin embargo, al igual que
en el primer caso estudiado (X > 0 toma solo valores enteros), la distribucion de la
variable aleatoria X esta determinada en forma u
nica por su funcion generatriz.
- Es posible usar la funcion generatriz para obtener momentos de cualquier orden. De
manera analoga a lo hecho para g se calcula la derivada de y se eval
ua en t = 0. En
el caso discreto se puede calcular la derivada de la serie correspondiente derivando
termino a termino. De manera similar en el caso continuo la derivada de la integral
se calcula como la integral de la derivada del integrando. Esto significa que
"
i
d tX
d h
e
= E[XetX ].
(t) = E etX = E
dt
dt
0
E[XetX ] =
xext P (X = x).
{x:P (X=x)>0}
xetx f (x)dx.
Por lo tanto
0 (0) = E[X]
(0) = E[X 2 ]
...
(n)
(0) = (1)n E[X n ]
ametro
Ejemplos 4.3 Distribucion exponencial con par
(
f (x) =
(t) = E[etX ] =
Z
0
ex x 0
0
x<0
etx ex dx =
Z
0
e(+t)x dx =
+t
136
1
2
E[X 2 ] = 00 (0) = 2
2
1
1
var[X] = 2 2 = 2
Proposici
on 4.2 Sean X1 , X2 , . . . , Xn variables aleatorias independientes con funciones generatrices 1 , 2 , . . . , n . Entonces la funcion generatriz de X1 +X2 +. . . . , Xn
es igual a 1 2 . . . n .
h
Demostraci
on. Para i {1, 2, . . . , n} se tiene que Xi (t) = E etXi , por lo que
h
i h
Ejemplos 4.4
Sea X una variable aleatoria normalmente distribuida con media y varianza (, 2 ),
se tiene que
X (t) =
=
=
=
=
2
2
1 Z 2tx x2 +2x
1 Z tx (x)
2
2
2 2
dx =
dx
E[e ] =
e e
e2 e
2
2
2
2
1 Z 2tx22 x2 +2x
1 Z 22 x2 +2x+2tx
2 2
2 2
e 2 e
dx =
e 2 e
dx
2
2
2 )2 +(+t 2 )2
1 Z 22 x2 +2x(+t2 )(+t
2 2
e 2 e
dx
2
2 )2
x2 2x(+t 2 )+(+t 2 )2
1 Z 2 +(+t
2 2
2 2
e
e
dx
2
2 ))2
2 +(+t 2 )2
t2 2
1 Z (x(+t
2 2
2 2
e
e
dx = et+ 2
2
tX
En particular si = 0
t2
137
Con esta definicion de la funcion generadora de momentos es claro que se cumple
la propiedad enunciada en las proposiciones 1 y 2. Sigue siendo igualmente valida
la propiedad de que la funcion generadora de momentos de una variable aleatoria
determina de manera univoca su distribucion. Estos hechos se combinan para obtener
la importante propiedad que sigue.
Proposici
on 4.3 Si X y Y son variables aleatorias independientes normalmente
distribuidas con media y varianza (1 , 12 ) y (2 , 22 ) respectivamente se tiene que la
suma X + Y tambien esta normalmente distribuida con par
ametros (1 + 2 , 12 + 22 )
2
t2 1
2
e2 t+
2
t2 2
2
= e(1 +2 )t+
2 + 2 )
t2 (1
2
2
que es la funcion generadora de momentos de una variable aleatoria normal con media
2 + 2
2 + 2
1 + 2 y varianza 1 2 2 , esto equivale a afirmar que X + Y N (1 + 2 , 1 2 2 ).
Esta propiedad puede extenderse por induccion a la suma de n variables aleatorias
independientes y normalmente distribuidas.
h
138
Ejercicios 4.1
Dada una variable aleatoria X, considere la funcion generadora de momentos de X
(t) = E[etX ], t R y la transformada de Laplace de X como L(t) = E[etX ], t 0.
1. Halle la funcion generadora de momentos de las variables aleatorias siguientes:
a) Binomial con par
ametros (n, p), 0 p 1.
b) Poisson con par
ametro > 0.
c) Geometrica con par
ametro 0 p 1.
d) Binomial negativa con par
ametros (r, p), 0 p 1.
e) Uniforme sobre (a, b).
f ) Gamma con par
ametro > 0.
En cada uno de los casos anteriores derive para verificar las forulas de la esperanza
y la varianza.
2. Si Y = aX + b, donde a y b son constantes, exprese la funcion generadora de
momentos de Y en terminos de la funcion generadora de momentos de X.
3. Halle la transformada de Laplace para cada una de las siguientes densidades: a)
f (u) = 1c , u [0, c].
b) f es la densidad uniforme sobre (a, b).
c) f (u) = 2u
, u (0, c), c > 0.
c2
d) f es la densidad gamma con par
ametros (n, ), > 0.
4. Sea X una variable aleatoria normal con par
ametros (, 2 ).
3
a) Calcule E[(X ) ].
b) Use a) para determinar E[X 3 ].
c) Verifique el resultado obtenido en b) usando la transformada de Laplace o la funcion generadora de momentos de X.
5. Use la funcion generadora de momentos para determinar la distribucion de X1 +
X2 + . . . + Xn , donde X1 , . . . , Xn son variables aleatorias independientes e identicamente distribuidas exponencialmente con par
ametro
6. La funcion generadora de momentos de una variable aleatoria X esta dada por
gX (z) = e2z2 y la de Y por gY (z) = ( 41 )10 (3z + 1)10 . Si X e Y son independientes,
calcule: a) P (X + Y = 2); b) P (XY = 0); c) E[XY ].
7. Suponga que la funcion generadora de momentos de una variable aleatoria X
esta dada por g(z) = e3(z1) . Calcule P (X = 0). Halle la funcion de distribucion
de X.
139
8. Se lanzan 3 dados simetricos e identicos. Halle la funcion generatriz de la suma
de los tres dados. Halle la probabilidad de que la suma sea igual a 3.
9. Considere n sucesos independientes Aj , j = 1, . . . , n, con P (Aj ) = pj j = 1, . . . , n.
Denotemos por N el n
umero de estos eventos que ocurren. Halle la funcion generatriz
de N y calcule E[N ] usando esta funcion.
140
4.2.
Leyes de grandes n
umeros.
4.2.1.
Introducci
on
Xi =
1 si
0 si
entonces la frecuencia relativa Snn en este caso es el promedio de casos en que ocurre
A.
La Ley de los Grandes N
umeros dice que, para n grande
Sn
E[Xi ] = p = P (A)
n
P (A) frecuencia relativa de A, lo que permite estimar p por Snn para n suficientemente grande.
Esta ley se formulara para variables aleatorias mas generales, por ejemplo Xi no
tiene que ser 0.
4.2.2.
Desigualdad de Markov
Proposici
on 4.4 Si X es una variable aleatoria con valores no negativos, entonces
para a > 0
P (X a)
E[X]
a
Demostraci
on 1. Caso discreto. X discreta P (X = xj ) = pj con
P
j
pj = 1
141
E[X] =
P
j
xj pj . Sea A = {j : xj a} entonces: P (X a) =
E[X] =
xj p j +
xj p j
jAc
jA
xj p j
jA
P
jA
pj
apj = aP (X a)
jA
E[X]
.
a
R
Caso continuo: P (X a) = a f (x)dx y se tiene
P (X a)
E[X] =
xf (x)dx =
Ra
xf (x)dx +
R
a
xf (x)dx
R
a
xf (x)dx a
R
a
f (x)dx
E[X] aP (X a)
Demostraci
on 2. Utilizando la notacion de la demostracion anterior, sea A = {j :
xj a}. Como X 0 se tiene que aA XA X. Utilizando la monotona de la
esperanza se obtiene
h
i
h
i
E aA E XA E[X]
Lo que implica que
h
aP (A) = aP (X a) E X = P (X a)
E[X]
.
a
Proposici
on 4.5 Desigualdad de Chebyshev
Si X es una variable aleatoria con media finita y varianza 2 , entonces para
cualquier k > 0
P {|X | k}
2
E[(X )2 ]
=
k2
k2
Ejemplos 4.5
1. Suponga que se sabe que el n
umero de artculos producidos por una fabrica durante una semana es una variable aleatoria con media = 50
142
(a) Que puede decirse acerca de la probabilidad de que se produzcan mas de 75
artculos en 1 semana?
(b) Si la varianza de la producci
on en 1 semana es igual a 25, entonces que puede
decirse acerca de la probabilidad de que esta semana se produzcan entre 40 y 60 artculos?
Soluci
on
(a) X = # artculos a la semana
P (X > 75)
E[X]
50
2
=
= .
75
75
3
(b) P (40 X 60) = P (10 < X 50 < 10) = P (|X 50| < 10) = 1p(|X 50|
10)
1
25
1
3
P (|X 50| 10) 10
2 = 4 P (40 X 60) 1 4 = 4
2. Si X esta uniformemente distribuida sobre (0,10), entonces E[X] = 5, V ar[X] = 25
3
25
y por la desigualdad de Chebyshev: P (|X5| > 4) 316
= 0,52. Note que el resultado
correcto es: P (|X 5| > 4) = 0,2
Aplicaciones de la desigualdad de Chebyshev
Proposici
on 4.6 Si V arX = 0 = 2 entonces P (X = E[X]) = 1. Esto dice que solo
una variable aleatoria constante con probabilidad 1 puede tener varianza 0.
Demostraci
on. P |X | >
P (|X | 6= 0) =
1
n
2 n2 = 0 porque 2 = 0
[
n
1
|X | >
n
X
n
1
=0
P |X | >
n
P (|X | = 0) = 1.
Teorema 4.2 Ley d
ebil de los Grandes n
umeros
Sean X1 , X2 , ... una sucesi
on de variables aleatorias independientes, identicamente
distribuidas cada una con media E[Xi ] = y varianza 2 (ambas finitas). Entonces
para cada > 0
X1 + + Xn
0
P
cuando
n .
Demostraci
on. Puesto que {Xi }i1 son independientes e identicamente distribuidas,
para cada n
1X
1
X1 + + Xn
=
E
E[Xi ] = n =
n
n
n
y
143
X1 + + Xn
1 X
1
= 2
V arXi = 2 .
n
n
n
Sn
X1 + + Xn
Aplicando la desigualdad de Chebyshev a
=
se tiene que
n
n
X1 + + Xn
2 0
P
2 n
n
n
V ar
Ejemplos 4.6
1. Sea A un evento que ocurre con probabilidad p = P (A) en un experimento
dado y Sn = # veces que A ocurre en n realizaciones del experimento, observe
que Sn es una variable aleatoria binomial con par
ametros (n, p). Se tiene que
Sn
Sn
P n p 0 cuando n pn = n se aproxima a p cuando n es
suficientemente grande.
2. Supongamos que una falla en un sistema mec
anico ocurre de acuerdo a una
distribucion de Poisson con par
ametro > 0. Entonces el n
umero de fallas en
un intervalo [0, t] esta dado por X(t) y es tal que
P (X(t) = k) = et
Sea X(t)
=
X(t)
t
(t)k
k!
Entonces
E[X(t)]
= 1t E[X(t)] =
V ar(X(t))
=
1
V
t2
t
t
ar(X(t)) =
| )
P (|X(t)
1
2 t
t
t2
X(t)
es aproximada por su esperanza cuando t es suficientemente grande.
En general se tiene que el promedio
X1 + + Xn
= E[Xi ].
n
144
Ejercicios 4.2
1. Sea X una variable aleatoria tal que E[X] = y V ar[X] = 2 . Demuestre que
P (|X | k) k12 .
2. Si X es una variable aleatoria tal que E[X] = y V ar[X] = 2 , el radio r = ||
145
de hembras en una poblaci
on. Encuentre un tama
no de muestra que asegure que, con
una probabilidad de al menos 0,99, la estimacion se hara con un error menor a 0,005.
10. Se desea estimar la probabilidad de falla p en un proceso de producci
on mediante
la observacion de n objetos producidos, elegidos independientemente. Por informacion
previa que se tiene acerca del proceso, se sabe que p est
a comprendida entre 0.1 y 0.3.
Halle el tama
no n de la muestra para que probabilidad de que la frecuencia relativa
de objetos defectuosos en la muestra difiera del verdadero valor p en mas de 0,01 sea
menor a 0,05.
11. Se observan n repeticiones independientes de un juego de ruleta. Halle n para
que con probabilidad menor que 0.1, la frecuencia relativa del n
umero de veces que
ocurre la primera docena sea mayor que 31 .
Nota. Los resultados posibles en un juego de ruleta son 00, 0, 1, 2, . . . , 36 y la primera
docena consta de los numeros 1, 2, . . . , 12.
146
4.2.3.
Definici
on 4.3 Una sucesi
on de variables aleatorias X1 , X2 , . . . converge
probabilidad a la variable aleatoria X, si se verifica que para todo > 0
P |Xn X| 0
cuando
en
n .
(P )
P Xn X
cuando
n = 1.
(4.2)
lm P Xn x = P X x
n
4.2.4.
variables aleatorias Yn =
converge en distribucion a una variable
n
aleatoria normal unitaria cuando n . Es decir:
lm P (Yn a) = lm P
!
1 Z a x2
X1 + + Xn n
a = (a) =
e 2 dx
n
2
147
4.2.5.
Aplicaciones
P
(100)k
k!
k=120
Esta suma es difcil de calcular, por lo tanto usando el hecho de que la suma de
variables independientes de Poisson, con par
ametros 1 y 2 es una variable de
Poisson con par
ametro 1 + 2 se tiene que
X = X1 + + X100 donde Xi Poisson = 1 para i 1 variable aleatoria
independientes. Se puede usar el teorema central del lmite para obtener una
aproximaci
on de la probabilidad deseada. Observe que E[Xi ] = 1 = V ar[Xi ].
P (X > 120) = P (X1 + + X100 > 120)
X + + X
100 1
120 100
1
100
= P
>
1 100
100
X 100
= P
> 2 1 (2) = 0,0228.
10
uniformemente
dis2. Si Xi , i = 1, ..., 10 son variables aleatorias independientes
10
P
i=1
Se tiene que
h
E Xi =
Z 1
0
x2 1 1
xdx = =
2 0 2
Xi2
Z 1
0
Xi > 6 .
x2 dx =
x3 1 1
= ;
3 0 3
h i
1 1
1
por lo tanto V ar Xi = = . Aplicando el teorema central del lmite se
3 4
12
tiene que
10
P10 X 5
P10 Xi 10 1
X
6 5
12
i
i=1
i=1
2
=
P
P ( Xi > 6) = P
>
>
10
1
10
10
10
i=1
12
q
12
12
148
!
Sn np
1 Z b x2 /2
lm P a <
b = (b) (a) =
e
dx
n
npq
2 a
Comentarios:
1. Para todo i 1 E[Xi ] = p = y V ar[Xi ] = pq.
2. Para cada n 1, Sn es una variable aleatoria binomial con parametro (n, p). El
teorema de De Moivre-Laplace establece que es posible aproximar una variable
aleatoria binomial por una normal con parametros (np, npq)
Preliminares
1. La F
ormula de Stirling.
Lema 4.1 Cuando n , se cumple que
n
n
n!
2n.
e
Comentario. La formula de Stirling implica que
n
k
n
n
2n
n!
e
k
nk q
k
k!(n k)!
2k nk
2 (n k)
e
nk
n
n
n
1
nk
k k (n k)
k 2 (n k)
s
!
k
nk
n
n
1
n
n
k
k
nk
2 k(n k)
=
!
1
2
n
exk /2 ,
P (Sn = k) =
pk q nk
k
2npq
para n suficientemente grande. Sobre SA la convergencia es uniforme.
149
Demostraci
on. Sea k SA , por definicion de xk se tiene que k = np + npqxk lo que
implica que
npq
q
k
=1+
xk = 1 + xk 1 cuando n ;
np
np
np
es decir que,
k np.
(4.3)
n k = n np npqxk = nq npqxk
npq
p
nk
= 1
xk = 1 xk 1 cuando n ;
nq
nq
nq
por lo cual
n k nq
(4.4)
n
k
pk q nk
n
k
n
nk
nk s
1
n
pk q nk
2 k(n k)
np k
nq nk 1
n
=
k
nk
2 k(n k)
k
nk s
np
nq
n
k
nk
2npnq
k
nk
np
nq
1
=
.
k
nk
2npq
Para demostrar el lema sera entonces suficiente demostrar que
nq
nk
nk
exk /2 .
npqxk
npqxk
nq
np
=1
y
=1+
.
k
k
nk
nk
Sabemos que np = k
np
k
150
Entonces
np
ln
k
nq
nk
nk
= k ln 1
npqxk
k
npqxk
+ (n k) ln 1 +
.
nk
+ . . . + (1)
.
2
3
4
n
npqxk
npqxk npq(xk )2
k ln 1
= k
+
.
.
.
k
k
2k 2
npqxk
npqxk
npq(xk )2
(n k) ln 1 +
= (n k)
+
.
.
.
nk
nk
2(n k)2
siempre que
npqx
k
<1
npqx
k
<1
y
k
nk
lo cual es cierto para n suficientemente grande ya que en este caso k np y nk nq.
Se tiene entonces que
ln
np
k
nq
nk
nk
Por lo tanto
npq(xk )2
npq(xk )2
npqxk
+ npqxk
2k
2(n k)
2
2
n
x 1
1
x
= npq k
+
= npq k
2 k nk
2 (n k) k
x2 np
nq
x2k
= k
.
2 k nk
2
np
k
nq
nk
nk
exk /2 .
Demostraci
on del teorema de De Moivre-Laplace.
Cuando ocurre el evento {Sn = k} se tiene
Sn np
b
P a<
npq
= P
n
[
k=0
n
X
Sn np
npq
= Xk = Xn,k , entonces
Sn np
a<
b, Sn = k
npq
!
!!
Sn np
=
P a<
b|Sn = k P (Sn = k) .
npq
k=0
151
Observando que
Sn np
P a<
b|Sn = k =
npq
1
0
si xk (a, b]
si xk
/ (a, b]
(4.5)
se tiene
Sn np
P a<
b
npq
P (Sn = k) =
{a<xk b}
{a<xk b}
n
k
1
1
2
exk /2 =
2npq
2
{a<xk b}
Ahora bien
pk q nk
{a<xk b}
1 x2 /2
e k
npq
k + 1 np k np
1
=
.
npq
npq
npq
xk+1 xk =
Esto implica que
Sn np
1
P a<
b
npq
2
exk /2 (xk+1 xk )
(4.6)
{a<xk b}
xk = knp
var
a
desde
hasta
. Tomando n suficientente grande se tendra que
npq
q
p
q
(a, b]
np
,
q
nq
p
1 .
npq
!
Sn np
1 Z b x2 /2
P a<
b
e
dx.
npq
2 a
Z b
a
ex
2 /2
dx.
lm P
Demostraci
on. Sea Sn =
que
i) a1 < x < a2 ,
n
P
i=1
Xi (=# exitos en
)
1 Z x u2 /2
Sn np
x
=
e
du.
npq
2
Sn np
.
npq
152
ii) (a1 ) < 2 y
iii) 1 (a2 ) < 2 .
Se tiene entonces que
= 1 P x < Sn a2 1 P Sn > x = P Sn x .
Por otra parte
cuando n y
y
2
= (x) P Sn x (x) + +
2 2
2 2
= |P Sn x (x)| .
Acerca de la demostraci
on del Teorema Central del Limite (para variables
aleatorias independientes e id
enticamente distribuidas).
A continuacion presentaremos los lineamientos generales de la demostracion del
teorema 4.3, la cual esta basada en el siguiente lema que enunciaremos sin demostracion.
Lema 4.3 Sean Z1, Z2 , y Z variables aleatorias con funciones de distribucion
F1 , F2 , . . . y F y funciones generadoras de momentos 1 , 2 , . . . y , respectivamente.
Si n (t) (t) para todo t, cuando n , entonces
Fn (t) F (t) para todo t cuando n
.
153
2
tXi
i (t) = E[e
] = i,n (t) = E e
t ni
=E e
t Xi
n
Sn (t) =
n
Y
i=1
"
= i
!#n
"
n
P
Xi
i=1
= 1
= i
!#n
Sea
L(t) = ln 1 (t). Para demostrar el teorema sera suficiente demostrar que
i
n
2
t
1 n
et /2 cuando n . Esto equivale a demostrar que
n ln 1
!!
t
n L
n
t2 /2
n
t2 /2
n
= ==0
(0)
1
L0 (0) =
t
lm L
n
n
= L(0) = 0 = lm n ln 1
n
!!
= lm
t
n
1
n
0
.
0
154
Aplicando la regla de LHopital
lm n ln 1
!!
lm
00
t
2t
n
n2 n3/2
L0
lm L
n
t2
2
= n
lm
L0
= L00 (0)
t
n
2
n
t2
t2
=
2
2
X1 + + Xn
a =P
n
Xi
a =P
n
X1 + + Xn n
(a)
a
n
n
X1 ++X
n n
n
(a)
a
n
Puede demostrarse que para cada > 0, existe N tal que |Fn (a) (a)| < a
siempre que n N . Es decir que la convergencia es uniforme en a.
P
i=1
i2 = , entonces
n
P
(Xi i )
i=1
(a)
P s
a
n
n
P 2
i=1
155
Teorema 4.7 (Lindeberg) Sea X1, X2 , una sucesi
on de varaiables aleatorias independientes con medias i = E[Xi ] = 0 y varianzas V ar[Xi ] = i2 < i 1. Si
Sn = X1 + . . . + Xn , entonces E [Sn ] = 0 y V ar [Sn ] =
n
P
i=1
i2 = n2 .
Condici
on de Lindeberg. Dado > 0 sea Ai,n = { : |Xi | > n }, entonces
n
h
i
1 X
2
0.
E
X
n
i Ai,n
n2 i=1
Si se cumple la condici
on de Lindeberg entonces
Sn
(a).
a
n
n
4.3.
4.3.1.
Preliminares.
X1 + + Xn
0
P
n
n
el evento An = { :
< } tiene una alta probabilidad de ocurrir.
n
n ()
Sin embargo esto no garantiza que si An la sucesion Snn() = X1 ()++X
se
n
mantendra cercade para todo m > n.
Un resultado mas categorico lo constituye la ley fuerte de los grandes n
umeros.
es decir,
X1 + + Xn
= ;
n
Sn ()
: lm
=
n
n
)!
= 1
156
Comentarios.
n
o
1)
1. Si A = : lmn Snn() = , para todo 1 A se cumple que Sn (
estara arn
bitrariamente proximo a cuando n .
2. Esto en el caso de variables aleatorias de Bernoulli, el teorema afirma que para n
grande Snn p es peque
no y con probabilidad 1 permanecer
a asi.
Demostraremos la ley fuerte de los grandes n
umeros para variables aleatorias de
Bernoulli. Pero antes demostraremos un importante lema.
Lema 4.4 (Lema de Borel-Cantelli.) Sea {An }n1 una sucesi
on de eventos en un
espacio de probabilidad. Sea
A = { : An para infinitos valores de n }.
( A se denomina limite superior de los conjuntos {An }). Entonces
1. Si
2. Si
P
n=1
P
n=1
An .
(4.7)
m=1 n=m
Si definimos Bm =
S
n=m
Bm .
m=1
An = Bm =
n=m
\
m=1
Bm = A
Bm
m=1
157
1. Si
n=1
P (Bm )
0.
P (An )
m
n=m
P (Bm ). Tomando lm
Pero como A Bm para todo m entonces P (A)
m
lm P (Bm ) = 0 P (A)
= 0.
obtenemos que es P (A)
m
2. Supongamos que
A =
n=1
Bm Ac =
m=1
c
Bm
,
donde
c
Bm
\
n=m
m=1
Acn
l
\
n=m
Acn ,
P
c
c
Entonces P Ac
P (Bm
). Demostraremos que P (Bm
) = 0 m.
m=1
c
(Bm
)
=P
n=m
Acn
l
T
n=m
Acn =
l
Q
n=m
P (Acn ) =
l
Q
n=m
(1 P (An )) .
l
\
Acn =
n=m
l
Y
(1 P (An ))
n=m
l
Y
eP (An ) = e
l
P
n=m
P (An )
n=m
Rx
2 /2
et
n=m
2
x
1 e 2
2
Acn e
P (An )
= 0 P A = 1
(x)
.
x
Demostraci
on. Para t > 0 es claro que
3
1
(t)
<
(t)
<
1
+
(t)
t4
t2
158
Entonces
Z
Z
Z
3
1
1 4 (t) dt <
(t) dt <
1 + 2 (t) dt
t
t
x
x
Z
3
1 Z
1
1 Z
2
2
1 4 et /2 dt <
(t) dt <
1 + 2 et /2 (t) dt
t
t
x
2 x
2 x
1
1
=
3
x x
x2/2
e
<
Z
x
2/2
1 ex
(t) dt <
x 2
1 ex
1 (x) .
x 2
4.3.2.
Sn
=p
n
S kp
k
Demostraci
on. Sea Ak = : 2a log k , para a > 1. Entonces usando
lm
kpq
P (Ak ) = P
|Sk |
>
2a log k = P
Sk
>
2a log k + P
Sk
< 2a log k
2a log k + 1
2a log k = 2 1
2a log k
2a log k + 2a log k
q
= 1
2a log k
2e 2
2
1
a
a
elog k < elog k = a , a > 1
=
k
2 a log k
2 2a log k
=
X
k=1
P (Ak ) <
X
1
k=1
ka
< .
159
= 0. Por lo tanto, con probabilidad
Por el lema deBorel-Cantelli se tiene que P (A)
1, Ak = {|Sk | > 2a log k} ocurre solo para un n
umero finito de k 0 s.
Sn np
>
Por otra parte si Snn p > , entonces
n pq
n
pq
>
2a log n
para n
el
infinitos valores de n entonces |Sn | > 2a log n para infinitos n0 s lo cual contradice
Sn
hecho de que P (A) = 0. Por lo tanto > 0 con probabilidad 1, n p > puede
ocurrir solo para finitos n0 s. Esto implica que, con probabilidad 1
Sn
p
n
(n )
Teorema 4.10 (Ley fuerte de los grandes numeros para variables aleatorias independientes.) Sean X1 , X2 , . . . variables aleatorias independientes con E [Xi ] = 0 y
V ar [Xi ] = i2 < . Si
2
P
i
i=1
i2
X1 + . . . + Xn
0,
n
cuando
n .
160
Ejercicios 4.3
1. Sea X =# caras en 40 lanzamientos de una moneda perfecta. Halle una aproximacion de P (X = 20).
2. El tama
no ideal de una clase en una universidad es de 150 estudiantes. La universidad sabe por experiencia que solo 30 % de los estudiantes admitidos asistira, por lo
tanto tiene la politica de admitir 450 estudiantes para la mencionada clase. Halle la
probabilidad de que el n
umero de estudiantes que asista sea mayor o igual a 150.
3. Dos tipos de monedas son producidos por una fabrica: unas son perfectamente
simetricas, otras arrojan cara en un 55 % de los casos. Tenemos una de esas monedas pero no sabemos de que tipo es. Para determinar si es perfecta o no hacemos
la siguiente prueba estadstica: lanzamos la moneda 1000 veces y si caen 525 o mas
caras concluimos que no es perfecta. Si la moneda es perfecta, Cual es la probabilidad de que lleguemos a una conclusi
on equivocada? Cual si la moneda no es perfecta?
4.Considere una sucesi
on de experimentos independientes. Sea E un evento que ocurre
con probabilidad P (E) y Yn =# veces que ocurre E en n ensayos. Demuestre que con
probabilidad 1 Ynn P (E) cuando n .
5. Una moneda perfecta es lanzada en ensayos independientes sucesivos. Sea Sn = el
total de caras despues de n ensayos. De un estimado de P ( Snn < x).
6. Un evento E ocurre con probabilidad 14 en una realizaci
on de un experimento.
De una aproximaci
on de la frecuencia relativa de ocurrencia de E si el experimento
se realiza de forma independiente n veces, para n suficientemente grande. Justifique
su respuesta.
7. Un jugador gana o pierde 1 dolar con probabilidades p y q respectivamente. Si el
puede (y lo hace) seguir jugando incluso despues de haber perdido todo, a) Que puede
decirse de la ganancia acumulada en un n
umero grande de juegos? b) Demuestre que
si el juego no es justo y p < 1/2, entonces a medida que el jugador continua jugando su deuda
aumenta constantemente con una probabilidad abrumadora. Sugerencia:
161
9. En una maquina de juego se gana o pierde 1 punto en cada jugada. En un dia
especial el casino ofrece fichas gratis a los jugadores que acumulen mas de 80 puntos
en los primeros 100 juegos. Los jugadores experimentados saben que en la maquina
roja la probabilidad de ganar un juego es 45 . (a) Cual es la probabilidad de que un
jugador gane las fichas extra si juega en la maquina roja?. (b) Si cada jugador realiza solo 100 jugadas, cual es la probabilidad de que los primeros 8 jugadores en la
maquina roja no obtengan las fichas extra?
10. Se tienen 25 componentes electr
onicos cuyos tiempos de vida son variables aleatorias independientes exponencialmente distribuidas con media igual a 1 a
no. Si se usa
s
olo uno de estos componentes a la vez y cada componente da
nado se reeplaza inmediatamente; halle la probabilidad de que los 25 componentes tengan un tiempo total de
vida que oscile entre 30 y 40 a
nos.
11. Se lanza un dado perfecto consecutivamente hasta que la suma de todos los valores
obtenidos sea mayor que 260. Halle la probabilidad de que se requieran al menos 65
lanzamientos.
12. Una bolsa contiene 10 bolas numeradas del 1 al 10. Se saca una bola al azar,
se anota el n
umero y se coloca la bola de nuevo en la bolsa. La operaci
on se repite
sucesivamente hasta que la suma de los n
umeros obtenidos sea mayor que 500. Halle
la probabilidad aproximada de que se requieran al menos 82 extracciones.
13. Un apostador tiene probabilidad 13 de ganar en una jugada. Si el juega undefinidamente, de un valor aproximado del n
umero promedio de juegos que ganara. Justifique
su respuesta.
14. Una computadora genera una secuencia de 10000 dgitos aleatorios. Halle la probabilidad de que el dgito 7 aparezca mas de 968 veces.
15. Al lanzar una moneda 10.000 veces se obtuvieron 5.500 caras. Se puede suponer
que la moneda es legal?
16. Calcule una aproximaci
on de la probabilidad de que el n
umero de 6 obtenidos
al lanzar un dado perfecto 12.000 veces este comprendido entre 1900 y 2153.
17. Encuentre k tal que la probabilidad de obtener entre 490 y k veces cara en 1000
lanzamientos de una moneda perfecta sea 12 .
18. Un dado se lanza hasta que la suma de las caras sea mayor que 300. Halle la
probabilidad de que se requieran al menos 80 lanzamientos.
162
Bibliografa
[1] K.L.Chung, Teora Elemental de la Probabilidad y de los Procesos Estoc
asticos,
Ed. Reverte (1983) .
[2] W. Feller, Introducci
on a la Teora de Probabilidades y sus Aplicaciones, LimusaWiley (1973).
[3] M.M. Olivares Notas de Probabilidades. Escuela de Matematicas, UCV (2003).
[4] S. Ross, A First Course in Probability, 3rd. Ed. Macmillan (1988).
[5] J. Ortega, Notas del Curso de Probabilidades. No ha sido publicado.
163