Notas 9
Notas 9
27 de abril de 2009
ollin tonatiuh
1
Índice
1. Cuentas con exponenciales 2
1.1. Pasaje de lo discreto a lo continuo . . . . . . . . . . . . . . . . . . . . . . . 2
1.2. Distribución exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3. Caracterización cualitativa de la distribución exponencial . . . . . . . . . . 3
4. Bibliografı́a consultada 22
2
de espera T más sencillo es el tiempo de espera hasta el primer éxito en una sucesión de
ensayos Bernoulli con probabilidad de éxito p(ε). En tal caso P(T > nε) = (1 − p(ε))n y
el tiempo medio de espera es E[T ] = ε/p(ε). Este modelo puede se puede refinar haciendo
que ε sea cada vez más chico pero manteniendo fija la esperanza ε/p(ε) = 1/λ. Para un
intervalo de duración t corresponden aproximadamente n ≈ t/ε ensayos, y entonces para
ε pequeño
Este modelo considera el tiempo de espera como una variable aleatoria discreta distribuida
geometricamente y (1) dice que “en el lı́mite” se obtiene una distribución exponencial.
Si no discretizamos el tiempo tenemos que tratar con variables aleatorias continuas.
El rol de la distribución gométrica para los tiempos de espera lo ocupa la distribución
exponencial. Es la única variable continua dotada de una completa falta de memoria. En
otras palabras, la probabilidad de que una conversación que llegó hasta el tiempo t continúe
más alla del tiempo t+s es independiente de la duración pasada de la conversación si, y solo
si, la probabilidad que la conversación dure por lo menos t unidades de tiempo está dada
por una exponencial e−λt .
3
Si se piensa que T es el tiempo de vida de algún instrumento, la ecuación (4) establece
que la probabilidad de que el instrumento viva al menos s + t horas dado que sobrevivió t
horas es la misma que la probabilidad inicial de que viva al menos s horas.
La condición de pérdida de memoria es equivalente a la siguiente
En efecto, basta observar que P(T > s + t, T > t) = P(T > s + t) y usar la definición de
probabilidad condicional.
Usando (6) se prueba inmediatamente que la ecuación (5) se satisface cuando T tiene
distribución exponencial (pues e−λ(s+t) = e−λs e−λt ).
Ejemplo 1.2. Supongamos que el tiempo de espera para recibir un mensaje tenga dis-
tribución exponencial de media 10 minutos. Cuál es la probabilidad de que tengamos que
esperar más de 15 minutos para recibirlo? Cuál es la probabilidad de que tengamos que
esperar más de 15 minutos para recibir el mensaje dado que hace más de 10 minutos que
lo estamos esperando?
Si T representa el tiempo de espera, T ∼ Exp(1/10). La primer probabilidad es
1 3
P(T > 15) = e− 10 15 = e− 2 ≈ 0.220
Teorema 1.3. Sea T una variable aleatoria continua a valores en R+ . Si T pierde memoria,
entonces T ∼ Exp(λ), donde λ = − log P(T > 1).
4
Demostración (a la Cauchy). Sea G(t) := P(T > t). De la ecuación (5) se deduce que
m m
1
G =G . (9)
n n
n
En particular, si m = n se obtiene G (1) = G n1 . Equivalentemente,
1 1
G = G(1) n (10)
n
5
Demostración. Basta ver que fν1 , λ ∗ fν2 , λ = fν1 +ν2 , λ , donde fν, λ designa la densidad de
probabilidades de la distribución Γ(ν, λ). Para cada s > 0 vale que
Z ∞
(fν1 , λ ∗ fν2 , λ ) (s) = fν1 , λ (s − t)fν2 , λ (t)dt
−∞
Z s ν1
λ λν2 ν2 −1 −λt
= (s − t)ν1 −1 e−λ(s−t) t e dt
0 Γ(ν1 ) Γ(ν2 )
Z s
λν1 +ν2
= e−λs
(s − t)ν1 −1 tν2 −1 dt. (13)
Γ(ν1 )Γ(ν2 ) 0
Distribuciones Beta
En el transcurso de la demostración del Lema 2.1 demostramos el siguiente resultado.
Corolario 2.2 (Distribuciones Beta). Sean ν1 > 0 y ν2 > 0. Vale que
Γ(ν1 + ν2 ) 1
Z
(1 − x)ν1 −1 xν2 −1 dx = 1. (16)
Γ(ν1 )Γ(ν2 ) 0
En particular, la función
Γ(ν1 + ν2 )
f (x) = (1 − x)ν1 −1 xν2 −1 1{x ∈ [0, 1]} (17)
Γ(ν1 )Γ(ν2 )
es una densidad de probabilidades que induce una distribución denominada Beta de parámet-
ros ν1 y ν2 .
Escribiremos X ∼ β(ν1 , ν2 ) para indicar que la variable aleatoria X tiene distribución
Beta de parámetros ν1 y ν2 . Observar que la distribución β(1, 1) coincide con la distribución
uniforme sobre el intervalo [0, 1].
6
2.3. Suma de exponenciales independientes de igual intensidad
Teorema 2.3. Sean T1 , T2 , . . . , Tn variables aleatorias independientes, idénticamente dis-
tribuidas, con distribución exponencial de intensidad λ > 0. La suma Sn = T1 + · · · + Tn
admite una densidad de probabilidades de la forma
λn
fSn (t) = tn−1 e−λt 1{t > 0} (18)
(n − 1)!
y su función de distribución es
n−1
!
X (λt)i
FSn (t) = 1 − e−λt 1{t ≥ 0}. (19)
i=0
i!
En otras palabras, la suma de n variables aleatorias independientes exponenciales de in-
tensidad λ > 0 tiene distribución Gamma de parámetros n y λ.
2.4. Mı́nimos
Lema 2.4. Sean T1 y T2 dos variables aleatorias independientes y exponenciales de inten-
sidades λ1 y λ2 , respectivamente. Vale que
λ1
P(T1 < T2 ) = . (20)
λ1 + λ2
7
Demostración. La probabilidad P(T1 < T2 ) puede calcularse condicionando sobre T1 :
Z ∞ Z ∞
P(T1 < T2 ) = P(T1 < T2 |T1 = t)fT1 (t)dt = P(t < T2 )λ1 e−λ1 t dt
0 0
Z ∞ Z ∞
λ1
= λ1 e−λ2 t e−λ1 t dt = λ1 e−(λ1 +λ2 )t dt = .
0 0 λ1 + λ2
Demostración. En primer lugar, hay que observar que T > t si y solo si Ti > t para
todo i = 1, . . . , n. Como las variables T1 , T2 , . . . , Tn son exponenciales independientes de
intensidades λ1 , λ2 , . . . λn tenemos que
Yn Y n
P(T > t) = P(Ti > t) = e−λi t = e−(λ1 +···+λn )t .
i=1 i=1
8
Lo que completa la demostración.
Definición 3.1 (Proceso puntual aleatorio). Un proceso puntual aleatorio sobre la semi-
recta positiva es una sucesión {Sn : n ≥ 0} de variables aleatorias no negativas tales que,
casi seguramente,
(a) S0 ≡ 0,
La condición (b) significa que no hay arribos simultáneos. La condición (c) significa que
no hay explosiones, esto es, no hay una acumulación de arribos en tiempos finitos.
La sucesión {Tn : n ≥ 1} definida por
Tn := Sn − Sn−1 (21)
se llama la sucesión de tiempos de espera entre arribos. Para cada intervalo (a, b] ⊂ R+ ,
X
N (a, b] := 1{a < Sn ≤ b} (22)
n≥1
es una variable aleatoria a valores enteros no negativos que cuenta la cantidad de arribos
ocurridos en el intervalo de tiempo (a, b]. Para t ≥ 0, se define
X
N (t) := N (0, t] = 1{Sn ≤ t}. (23)
n≥1
9
N (t)
S1 S2 S3 S4 S5 t
T1 T2 T3 T4 T5
10
la probabilidad de que ocurran uno o más.
Las ecuaciones (25) pueden leerse de la siguiente manera: “en el intervalo de tiempo (t, t+h]
puede ocurrir o no algún arribo. Si h es pequeño, la chance de que ocurra un solo arribo
es (aproximadamente)proporcional a h; hay muy pocas chances de que ocurran dos o más
arribos.”
11
Si n ≥ 2, la ocurrencia de exactamente n arribos en el intervalo (0, t + h] puede darse
de tres maneras mutuamente excluyentes.
(1) No ocurre ningún arribo durante (t, t + h] y ocurren n arribo durante (0, t].
(2) Ocurren un arribo durante (t, t + h] y n − 1 arribos durante (0, t].
(3) Ocurren k ≥ 2 arribos durante (t, t + h] y n − k arribos durante (0, t].
La probabilidad de la primera contingencia es
o lo que es equivalente
pn (t + h) − pn (t) o(h)
= −λpn (t) + λpn−1 (t) + . (26)
h h
Cuando h → ∞, el último término del lado derecho de (26) tiende a cero; entonces el lı́mite
del lado izquierdo existe y
12
Para n = 0 la segunda y la tercer contingencia mencionadas anteriormente no pueden
ocurrir, y por ende (26) debe reemplazarse por la ecuación más simple
que conduce a
De (29) y la condición inicial p0 (0) = P(N (0) = 0) = 1 tenemos que p0 (t) = e−λt . Susi-
tuyendo esta p0 (t) en (27) con n = 1, tenemos la siguiente ecuación diferencial ordinaria
para p1 (t):
Puesto que p1 (0) = P(N (0) = 1) = 0, encontramos que p1 (t) = λte−λt . 1 Iterando este
procedimiento, encontramos uno a uno todos los términos de la distribución de Poisson de
media λt.
El siguiente resultado caracteriza la distribución conjunta de la sucesión de tiempos de
espera entre arribos Tn := Sn −Sn−1 correspondientes a un proceso de Poisson {Sn : n ≥ 0}
de intensidad λ.
Teorema 3.4. Las variables T1 , T2 , . . . son independientes y cada una tiene distribución
exponencial de intensidad λ.
El evento {T1 = t1 } se relaciona con los arribos durante el intervalo de tiempo (0, t1 ],
mientras que el evento {N (t1 , t1 + t] = 0} se relaciona con los arribos posteriores a t1 . Esos
eventos son independientes , por la condición (b) de la definición (3.2), y en consecuencia,
13
Corolario 3.5. Las variables Sn tienen distribución Gamma de parámetros n y λ:
n−1
X (λt)i
P(Sn > t) = e−λt (t ≥ 0).
i=0
i!
En particular, la esperanza y la varianza del tiempo de espera hasta el n-ésimo arribo son,
respectivamente, E[Sn ] = n/λ y V(Sn ) = n/λ2 .
Ejemplo 3.6. Suponga que el flujo de inmigración de personas hacia un territorio es un
proceso de Poisson de tasa λ = 1 por dı́a.
(a) ¿Cuál es el tiempo esperado hasta que se produce el arribo del décimo inmigrante?
(b) ¿Cuál es la probabilidad de que el tiempo de espera entre el décimo y el undécimo
arribo supere los dos dı́as?
Solución:
10
(a) E[S10 ] = λ
= 10 dı́as.
(b) P(T11 > 2) = e−2λ = e−2 ≈ 0.133.
14
Teorema 3.7. Dado que N (t) = n, los n tiempos de llegada S1 , . . . , Sn tienen la misma
distribución que los estadı́sticos de orden correspondientes a n variables aleatorias inde-
pendientes con distribución uniforme sobre el intervalo [0, t]. En otras palabras, bajo la
condición de que ocurrieron exactamente n arribos en el intervalo [0, t], los tiempos de los
n arribos S1 , . . . , Sn , considerados como variables aleatorias desordenadas, son independi-
entes y están distribuidos uniformemente sobre el intervalo [0, t].
Demostración. Notar que para 0 < s1 < · · · < sn < t el evento que
n n
!
h ǫ ǫ io \
k k
\
Sk ∈ s k + − , {N (t) = n}
k=1
2 2
es equivalente a que los primeros n + 1 tiempos de espera entre arribos satisfagan
n ! \ n
\ ǫk + ǫk−1 ǫk − ǫk−1 ǫn o
Tk ∈ sk − sk−1 + − , Tn+1 > t − (sn − ) , (31)
k=1
2 2 2
donde, para unificar la escritura, hemos puesto s0 := 0 y ǫ0 := 0. Como los tiempos de
espera entre arribos son exponenciales independientes de intensidad λ, la probabilidad del
evento definido en (31) es aproxidamente igual a
n
! n
n −λ(t−sn + n )
Y P Y
−λ(sk −sk+1 ) −λ(t−sn ) (s −s )
λe ǫ e
k = λ e k=1 k k−1
ǫ k
k=1 k=1
n
Y n
Y
n −λ(t−sn +sn ) n −λt
= λ e ǫk = λ e ǫk .
k=1 k=1
Por lo tanto,
n n
! ! n
h ǫ ǫ io \
k k
\ Y
n −λt
P Sk ∈ s k + − , {N (t) = n} ≈ λ e ǫk . (32)
k=1
2 2 k=1
15
Ejemplo 3.8 (Insectos en un asado). Todo tipo de insectos aterrizan en la mesa de un
asado a la manera de un proceso de Poisson de tasa 3 por minuto. Si entre las 13:30 y las
13:35 aterrizaron 8 insectos, cuál es la probabilidad de que exactamente 3 de ellos hayan
aterrizado durante el primer minuto?
Teorema 3.9. {N1 (t), t ≥ 0} y {N2 (t), t ≥ 0} son procesos de Poisson independientes de
tasas λp y λ(1 − p), respectivamente.
16
Para finalizar la demostración hay que mostrar que los procesos {N1 (t), t ≥ 0} y
{N2 (t), t ≥ 0} son independientes. El problema se reduce a demostrar que
P(N1 (t) = n, N2 (t) = m) = P(N1 (t) = n)P(N2 (t) = m).
Condicionando a los valores de N (t) y usando probabilidades totales se obtiene
∞
X
P(N1 (t) = n, N2 (t) = m) = P(N1 (t) = n, N2 (t) = m | N (t) = i)P(N (t) = i)
i=0
Nota Bene. En rigor de verdad, la demostración del Teorema 3.9 está incompleta.
¿Qué habrı́a que probar para completarla?
Ejemplo 3.10 (Insectos en un asado). Todo tipo de insectos aterrizan en la mesa de un
asado a la manera de un proceso de Poisson de tasa 3 por minuto y cada insecto puede
ser una mosca con probabilidad 2/3, independientemente de la naturaleza de los demás
insectos. Si a las 13:30 se sirven los chorizos, cuál es la probabilidad de que la tercer mosca
tarde más de 2 minutos en aterrizar en la mesa?
17
3.5. Superposición de Procesos de Poisson: competencia
Lema 3.11. Dos procesos de Poisson {Sn1 : n ≥ 0} y {Sn2 : n ≥ 0} independientes y de
tasas λ1 y λ2 , respectivamente, no tienen puntos en común.
Demostración. Basta probar que P(D(t)) = 0 para todo t, donde D(t) es el evento
definido por
D(t) := {existen puntos en común en el intervalo (0, t]}
Para simplificar la notación lo demostraremos para D = D(1).
Sean {N1 (t), t ≥ 0} y {N2 (t), t ≥ 0} los procesos de conteo de los procesos de Poisson
{Sn : n ≥ 0} y {Sn2 : n ≥ 0}. El evento
1
i i+1 i i+1 n
Dn := N1 , + N2 , ≥ 2 para algún i ∈ [0, 2 − 1]
2n 2n 2n 2n
decrece a D cuando n tiende a infinito, y por lo tanto, por la continuidad de la probabilidad
para sucesiones monótonas de eventos,
P(D) = lı́m P(Dn ) = 1 − lı́m P(Dnc ).
n→∞ n→∞
Pero
n −1
2\ !
i i + 1 i i + 1
P(Dnc ) = P N1 n
, n + N2 n
, n ≤1
i=1
2 2 2 2
n −1
2Y
i i+1 i i+1
= P N1 n
, n + N2 n
, n ≤1 .
i=1
2 2 2 2
Debido a que los procesos son temporalmente homogeneos, para cada i vale que
i i+1 i i+1 −n
−n
P N1 , + N 2 , ≤ 1 = P N 1 2 + N 2 2 ≤ 1
2n 2n 2n 2n
Y el problema se reduce a calcular P (N1 (2−n ) + N2 (2−n ) ≤ 1). La última probabilidad
puede expresarse como la suma de los siguientes términos
−n −n
P N1 2−n = 0, N2 2−n = 0 = e−λ1 2 e−λ2 2 ,
−n −n
P N1 2−n = 0, N2 2−n = 1 = e−λ1 2 e−λ2 2 λ2 2−n ,
−n −n
P N1 2−n = 1, N2 2−n = 0 = e−λ1 2 λ1 2−n e−λ2 2 .
En consecuencia,
−n
P N1 2−n + N2 2−n ≤ 1 = e−(λ1 +λ2 )2 1 + (λ1 + λ2 )2−n .
(34)
Por lo tanto,
2n
P(Dnc ) = e−(λ1 +λ2 ) 1 + (λ1 + λ2 )2−n . (35)
La última cantidad tiende a 1 cuando n → ∞, y se concluye que P(D) = 0.
18
Teorema 3.12 (Superposición). Sean {N1 (t), t ≥ 0} y {N2 (t), t ≥ 0} procesos de Poisson
independientes de tasas λ1 y λ2 , respectivamente. Entonces N (t) := N1 (t) + N2 (t) define
un proceso de Poisson de tasa λ = λ1 + λ2 .
Finalmente,
P(N (t + h) > n + 1|N (t) = n) ≤ P (A ∩ B) + P(C ∪ D),
donde C = {N1 (t, t + h] ≥ 2} y D = {N2 (t, t + h] ≥ 2}. Esta última probabilidad no es
mayor que (λ1 h)(λ2 h) + o(h) = o(h).
Teorema 3.13 (Competencia). En la situación del Teorema 3.12, sea T el primer arribo
del proceso N = N1 + N2 y J el ı́ndice del proceso de Poisson responsable por dicho arribo;
en particular T es el primer arribo de NJ . Entonces
λj
P(J = j, T ≥ t) = P(J = j)P(T ≥ t) = e−(λ1 +λ2 )t .
λ1 + λ2
λj
En particular, J y T son independientes, P(J = j) = λ1 +λ2
y T tiene distribución expo-
nencial de intensidad λ1 + λ2 .
19
3.6. Procesos de Poisson compuestos
Un proceso estocástico se dice un procso de Poisson compuesto si puede representarse
como
N (t)
X
X(t) = Yi
i=1
donde {N (t), t ≥ 0} es un proceso de Poisson, y las variables {Yi , i ≥ 1} son iid e inde-
pendientes de N .
Lema 3.15. Sea X(t) un proceso de Poisson compuesto. Si {N (t), t ≥ 0} tiene intensidad
λ y las variables Y tienen esperanza finita, entonces
E[X(t)] = λtE[Y1 ].
V(X(t)) = λtE[Y12 ].
Ahora bien,
N (t)
X
E [X(t) | N (t) = n] = E Yi | N (t) = n
i=1
" n
#
X
= E Yi | N (t) = n
" i=1
n
#
X
= E Yi por la independencia de Yi y N (t)
i=1
= nE[Y1 ].
y por lo tanto,
20
Ahora bien,
N (t)
X
V [X(t) | N (t) = n] = V Yi | N (t) = n
i=1
n
!
X
= V Yi | N (t) = n
i=1
n
!
X
= V Yi por la independencia de Yi y N (t)
i=1
= nV[Y1 ].
y por lo tanto,
21
4. Bibliografı́a consultada
Para redactar estas notas se consultaron los siguientes libros:
1. Billingsley, P.: Probability and measure. John Wiley & Sons, New York. (1986)
2. Brémaud, P.: Markov Chains: Gibbs Fields, Monte Carlo Simulation, and Queues.
Springer, New York. (1999)
4. Feller, W.: An introduction to Probability Theory and Its Applications. Vol. 1. John
Wiley & Sons, New York. (1957)
5. Feller, W.: An introduction to Probability Theory and Its Applications. Vol. 2. John
Wiley & Sons, New York. (1971)
6. Grimmett, G. R., Stirzaker, D. R.: Probability and Random Processes. Oxford Uni-
versity Press, New York. (2001)
8. Ross, S.: Introduction to Probability Models. Academic Press, San Diego. (2007)
22