Resumen 5 PDF
Resumen 5 PDF
Resumen 5 PDF
PROBABILIDAD
Ideas básicas:
Se dice que dos eventos A y B son mutuamente excluyentes si no tienen resultados en común.
Axiomas de la probabilidad:
1. Sea S un espacio muestral. Entonces P(S)=1.
2. Para cualquier evento A, 0 ≤ P (A) ≤ 1.
3.Si A y B son excluyentes, P(A∪B)=P(A)+P(B)
P(Ac )=1-P(A)
Si S es un espacio muestral que contiene N resultado igualmente probables y si A es un evento que contiene
k resultado, entonces:
k
P (A) =
N
Sean A y B cualesquiera eventos, entonces.
P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
Métodos de conteo
P (A ∩ B)
P (A|B) =
P (B)
Dos eventos A y B son independientes si la probabilidad de cada uno es la misma si ocurren o no los demás
eventos.
→ Si P(A) ̸= 0 y P(B) ̸=0, entonces son independiente si;
P (B|A) = P (B)
→ Si P(A)=0 o P(B)=0, son independientes.
Variables aleatorias
Una variable aleatoria asigna un valor numérico a cada resultado en un espacio muestral.
DISCRETAS
Sea X una variable aleatoria discreta con función de masa de probabilidad p(x)=P(X=x). La media de X
está dada por X
µx = xP (X = x)
x
Sea X una variable aleatoria discretacon función de masa de probabilidad p(x)=P(X=x). La varianza de
X está dada por X X
σx2 = (x − µx )2 P (X = x) σx2 = x2 P (X = x) − µ2x
x x
p
La desviación estándar es la raı́z cuadrada de la varianza σx = σx2
CONTINUAS
Sea X una variable aleatoria continua con función de densidad de probabilidad f(x). Sean a y b cualesquiera
dos números, con a < b. Entonces
Z b
P (a ≤ X ≤ b) = P (a ≤ X < b) = P (a < X ≤ b) = P (a < X < b) = f (x)dx
a
Sea X una variable aleatoria continua con función de densidad de probabilidad f(x). Entonces,
Z ∞
f (x)dx = 1
−∞
Sea X una variable aleatoria continua con función de densidad de probabilidad f(x). La función de distri-
bución acumulativa de X es la función
Z x
F (x) = P (X ≤ x) = f (t)dt
−∞
Sea X una variable aleatoria continua con función de densidad de probabilidad f(x). Entonces la media de
X está dada por, Z ∞
µx = xf (x)dx
−∞
Si p es cualquier número entre 0 y 100, el p-ésimo percentil es el punto xp que resuelve la ecuación
Z xp
F (xp ) = P (X ≤ xp ) = f (x)dx = p/100
−∞
µX+b = µX + b
2 2
σX+b = σX
Si X es una variable aleatoria y a es una constante , entonces,
µaX = aµX
σaX = |a|σX
Si X1, . . . , Xn son variables aleatorias y c1, . . . , cn son constantes, entonces la variable aleatoria
c1 X1 + ...... + cn Xn
De forma más general, si X1,X2, . . . , Xn son variables aleatorias y c1,c2, . . . , cn son constantes, entonces
la media de la combinación lineal c1X1 c2X2 . . . cn Xn está dada por
µX = µ
2 σ2
σX =
n
σ
σX =√
n
DISTRIBUCIONES COMÚNMENTE USADAS
Distribución de Bernouilli
Un experimento con dos resultados “éxito” y “fracaso”. p es la probabilidad de que sea exito y (1-p)
la de fracaso.
Si X∼ Bernouilli(p), entonces,
2
µX = p σX = p(1 − p)
Distribución binomial
Si se realiza un total de n ensayos de Bernouilli y si los ensayo es independiente , tiene la misma pro-
babilidad de éxito p y X es el número de éxitos en los n ensayos, entonces
X ∼ Bin(n, p)
Suponga que una población finita contiene elementos de dos tipos, éxitos y fracasos, y que se extrae una
muestra aleatoria simple de una población. Entonces, si el tamaño muestral no es mayor a 5 % de aquélla,
se puede utilizar la distribución binomial para modelar el número de éxitos.
n!
px (1 − p)n−x x = 0, 1, ....n
p(x) = P (X = x) = x!(n − x)!
0 De otro modo
Si X∼ Bin(n,p), entonces la proporción muestral p̂=X/n se emplea para estimar la probabilidad de éxito
p. Estando p̂ sin sesgar y siendo la incertidumbre la siguiente,
r
p(1 − p)
σp̂ =
n
Distribución de Poisson
Si X∼ Poisson(λ), entonces, X es una variable aleatoria discreta cuyos posibles valores son enteros no
negativos, el parámetro λ es una constante positiva, la función masa de probabilidad de X es,
x
e−λ λ x = entero no negativo
p(x) = P (X = x) = x!
0 De otro modo
Distribución hipergeométrica
Suponga una población finita que contiene N unidades, de ellas R son clasificadas como éxitos y N -R
como fracasos. Suponga que se extrae n unidades de esta población, y sea X el número de éxitos en la mues-
tra. Entonces X sigue la distribución hipergeométrica con los parámetros N, R y n, que se puede denotar
como X ∼H(N, R, n). La función de masa de probabilidad de X es
R N −R
x n−x
max(0, R + n − N ) ≤ x ≤ min(n, R)
N
p(x) = P (X = x) = n
0 De otro modo
Si X∼H(N,R,n), entonces
nR 2 R R N −n
µX = σX =n 1−
N N N N −1
Distribución geométrica
Suponga que se lleva a cabo una secuencia de ensayos de Bernoulli independientes, cada uno con la misma
probabilidad de éxito p. Sea X el número de experimentos hasta incluir el primer éxito. Por tanto, X es una
variable aleatoria discreta, la cual tiene una distribución geométrica con parámetro p.
La distribución binomial negativa constituye una extensión de la distribución geométrica. Sea r un en-
tero positivo. Suponga que se realizan ensayos de Bernoulli independientes, cada uno con probabilidad de
éxito p, y X representa el número de ensayos hasta incluir al r-ésimo éxito. Por consecuencia, X tiene una
distribución binomial negativa con parámetros r y p.
x − 1 pr (1 − p)x − r
x = r, r + 1....
p(x) = P (X = x) = r−1
0 De otro modo
Si X ∼NB(r,p),
X = Y1 + .... + Y : r
donde Y1, . . . , Yr son variables aleatorias independientes, cada una con distribución Geom(p).