Estadistica
Estadistica
𝑔= ∏▒𝑥_𝑖^(𝑓_𝑖/𝑛)
Media Geométrica
Medidas de tendencia
cental (Datos no
agrupados)
𝐻= 𝑛/(∑▒𝑓_𝑖/𝑥_𝑖 )
Media armónica
𝑔= ∏▒𝑥_𝑖^(𝑓_𝑖/𝑛)
Media geométrica
𝐻= 𝑛/(∑▒𝑓_𝑖/𝑥_𝑖 )
Media armónica
Medidas de tendencia
cental (Datos
agrupados) 𝑀𝑑=𝐿_𝑘+((𝑛/2−𝑓_(𝑎_(𝑘−1) ))/𝑓_𝑘 )𝑐
Mediana
Delta 2* ∆_2=𝑓_𝑚−𝑓_(𝑚+1)
𝑄_𝑘𝑝𝑜𝑠= 𝑛𝑘/4
Cuartiles
𝐷_𝑘𝑝𝑜𝑠= 𝑛𝑘/10
Deciles
𝑃_𝑘𝑝𝑜𝑠= 𝑛𝑘/100
Percentiles
Rango semiintercuartil
𝑅𝑆𝐼= 𝑅𝐼/2
𝑄𝐼= (𝑄_3+𝑄_1)/2
Cuartil intermedio
𝑄_𝐾=𝐿_𝑘+((𝑛𝑘/4−𝑓_(𝑎_(𝑘−1) ))/𝑓_𝑘 )𝑐
Cuartiles
𝐷_𝐾=𝐿_𝑘+((𝑛𝑘/10−𝑓_(𝑎_(𝑘−1) ))/𝑓_𝑘 )𝑐
Medidas de posición Deciles
(Datos agrupados)
𝑃_𝐾=𝐿_𝑘+((𝑛𝑘/100−𝑓_(𝑎_(𝑘−1) ))/𝑓_𝑘 )𝑐
Percentiles
Medidas de 𝑠= √(𝑠^2 )
dispersión Desviación muestral
𝜎^2= (∑▒ 〖 ( 〖𝑓 _𝑖 𝑥 〗 _𝑖) 〗 ^2 )/𝑛− 〖 (𝑥 ̅) 〗 ^2
Varianza poblacional
𝜎= √(𝜎^2 )
Desviación poblacional
𝑆𝑒𝑠𝑔𝑜= (𝑥 ̅−𝑀𝑜)/𝜎
Primer sesgo de Pearson
Medidas de forma
𝜅= ( 1/2 (𝑄_3−𝑄_1 ))/(𝑃_90−𝑃_10 )
Curtosis percentílico
Estadística descriptiva
Datos
x: Dato numérico
No aplica
x: Marca de clase
x: Dato
𝑥 〗 _𝑖) 〗 ^2 )/𝑛 numérico o marca de clase
〗 )/(𝑛−1)
n: Número total de datos
)/𝑛− 〖 (𝑥 ̅x:)Dato
〗 ^2numérico o marca de clase
n: Número total de datos
_90−𝑃_10
Q3: )Cuartil tres
Q1: Cuartil uno
P90: Percentil 90
P10: Percentil 10
Observaciones
Unión 𝐴∪𝐵
Resta 𝐴−𝐵
Intersección 𝐴∩𝐵
Operaciones de
conjuntos
Complemento 𝐴^𝑐 𝑜 𝐴′
𝐴∪𝐴=𝐴
Leyes de idempotencia
𝐴∩𝐴=𝐴
(𝐴∪𝐵)∪𝐶=𝐴∪(𝐵∪𝐶)
Leyes asociativas
(𝐴∩𝐵)∩𝐶=𝐴∩(𝐵∩𝐶)
𝐴∪𝐵=𝐵∪𝐴
Leyes conmutatitvas
𝐴∩𝐵=𝐵∩𝐴
(𝐴∩𝐵)∪𝐶=(𝐴∪𝐶)∩(𝐵∪𝐶)
Leyes distributivas
(𝐴∪𝐵)∩𝐶=(𝐴∩𝐶)∪(𝐵∩𝐶)
Leyes del álgebra de 𝐴∪𝜙=𝐴
conjuntos
Leyes de identidad
Leyes del álgebra de
conjuntos
𝐴∪Ω=Ω
Leyes de identidad
𝐴∩Ω=𝐴
𝐴∩𝜙=𝜙
𝐴∪𝐴^𝐶=Ω
〖 (𝐴^𝐶) 〗 ^𝐶=𝐴
Leyes de complemento
𝐴 〖∩𝐴〗 ^𝐶=𝜙
Ω^𝐶=𝜙; 𝜙^𝐶=Ω
〖 (𝐴∪𝐵) 〗 ^𝐶=𝐴^𝐶 〖∩𝐵〗 ^𝐶
Leyes de De Morgan
〖 (𝐴∩𝐵) 〗 ^𝐶=𝐴^𝐶 〖∪𝐵〗 ^𝐶
A y B: Conjuntos cualesquiera
Pruebas con
repetición 𝑛^𝑘
Principio
multiplicativo
Pruebas sin repetición 𝑛(𝑛−1)(𝑛−2)…=𝑛!
Permutaciones
Permutaciones con
𝑛!/(𝑛_1 !𝑛_2 !…𝑛_𝑘 !)
repetición
Combinaciones
Combinaciones C(𝑛, 𝑘)=𝐶_𝑘^𝑛=𝑛𝐶𝑘=𝑛!/(𝑛−𝑘)!𝑘!
simples
écnicas de conteo
Datos Observaciones
n: Número de elementos de nuestro Siempre debes de identificar tu conjunto en el que
conjunto trabajes (los dígitos, letras, libros, etc) una vez
k: Número de veces que aparece identificado encuentra su cardinalidad
Probabilidad de un 𝑛/𝑡
evento
Probabilidad
clásica
Ventajas de
probabilidad
𝑎:𝑏; 𝑝=𝑎/(𝑎+𝑏)
𝑃(𝐴)≥0
Axiomas principales 𝑃(𝑆)=1
𝑃(𝐴_1∪𝐴_2∪…∪𝐴_𝑛 )=1
Probabilidad de un
Axiomas de evento 0≤𝑃(𝐴)≤1
probabilidad Probabilidad del
complemento
𝑃(𝐴^𝐶 )=1−𝑃(𝐴)
𝑃(𝐴∪𝐵∪𝐶)=𝑃(𝐴)+𝑃(𝐵)+𝑃(𝐶)−𝑃(𝐴∩𝐵)
Probabilidad de la −𝑃(𝐴∩𝐶)−𝑃(𝐵∩𝐶)+𝑃(𝐴∩𝐵∩𝐶)
unión
Probabilidad de la
resta de eventos 𝑃(𝐴−𝐵)=𝑃(𝐴∩𝐵^𝐶 )=𝑃(𝐴)−𝑃(𝐴∩𝐵)
Probabilidad 𝑃(𝐴│𝐵)=(𝑃(𝐴∩𝐵))/(𝑃(𝐵))=|𝐴∩𝐵|/|𝐵|
Probabilidad
condicional condicional
𝑃(𝐴_1∩𝐴_2∩𝐴_𝑛 )=𝑃(𝐴_1 ) 〖𝑃 (𝐴 〗 _1 |
Teorema de la 𝐴_2) 〖 …𝑃 (𝐴 〗 _𝑛)𝑃(𝐴_1∩𝐴_2∩…
multiplicación ∩𝐴_(𝑛−1))
Teorema de Bayes
Teorema de Bayes
𝑃(𝐴_𝑖│𝐵)=(𝑃(𝐴_𝑖 )𝑃(𝐵 ┤|
Teorema de Bayes 𝐴_𝑖))/(∑24_(𝑖=1)^𝑛▒ 〖𝑃 (𝐴_𝑖
)𝑃(𝐵 ┤| 𝐴_𝑖) 〗 )
Probabilidad
Datos Observaciones
a: Número de veces que sucede lo que te La ventaja se escribe como una razón, donde el
interesa numerador es la cantidad de veces que pasa lo
que te interesa, y b es la cantidad de veces que
pasa lo que NO te interesa. Nota que a + b es el
b: Número de veces que sucede lo que total de posibilidades
NO te interesa
S: Espacio muestral
Estos axiomas son los principales dentro de la
probabilidad, no los usarás para demostrar algo,
pero es importante los tengas en mente
φ: Conjunto vacío
…𝑃 (𝐴 〗 _𝑛)
𝑓(𝑥_𝑖 )≥0
Función de probabilidad
∑24_(𝑖=1)^𝑛▒ 〖𝑓 (𝑥_𝑖 )=1 〗
Función de distribución
acumulada para una VAD
Distribuciones de
probabilidad de
variable discreta
𝐸(𝑋)= 𝜇_𝑋= ∑24_(𝑖=1)^𝑛▒ 〖𝑓 (𝑥_𝑖)𝑥_𝑖 〗
Esperanza o media de
una VAD
𝑓(𝑥_𝑖 )≥0
Función de probabilidad
∫24_(−∞)^∞▒𝑓(𝑥)𝑑𝑥=1
Variable aleatoria
continua
Esperanza o media de
𝜇_𝑥=𝐸(𝑋)=∫24_(−∞)^∞▒𝑥𝑓(𝑥)𝑑𝑥
una VAC
Variable aleatoria
continua
Esperanza o media de
𝜇_𝑥=𝐸(𝑋)=∫24_(−∞)^∞▒𝑥𝑓(𝑥)𝑑𝑥
una VAC
Distribución binomial
Media o esperanza en
una distribución binomial 𝐸(𝑋)= 𝜇_𝑋=𝑛𝑝
Varianza en una
distribución binomial 𝑉𝑎𝑟(𝑥)= 〖𝜎 _𝑥 〗 ^2=𝑛𝑝𝑞
Desviación de una
distribución binomial
𝜎_𝑥= √𝑛𝑝𝑞=√(𝑉𝑎𝑟(𝑥))
Valor esperado
𝜆=𝑛𝑝
Probabilidad de una VAD
𝑃(𝜆, 𝑘)= (𝜆^𝑘 𝑒^(−𝜆))/𝑘!
(valor exacto)
Distribución de
Poisson
P(𝑘_0< 〖𝑥 <𝑘 〗 _𝑛 )=∑_(𝑘=𝑘_0)^(𝑘_𝑛)▒(𝜆^𝑘 𝑒^(−𝜆))/𝑘!
Probabilidad de una VAD
(rango de valores)
Estandarización para x
𝑧= (𝑥−𝜇)/𝜎
Distribución normal
Estandarización para x
Distribución normal
𝜇=𝑛𝑝
Valor esperado
ones de probabilidad
Datos Observaciones
n: Número total de datos Para este caso, la media o esperanza será igual a la suma de cada
uno de los datos multiplicados por su probabilidad. Cuando se
x: Variable aleatoria discreta (valores que trata de un juego, si la media es igual a 0, se trata de un juego
puede tomar nuestro evento) justo. En caso contrario, la media nos dirá cuánto perdemos o
ganamos como jugadores
f(x): Función de probabilidad
µx: Media o esperanza
〖𝜇 _𝑥 〗 ^2 〗
x: Variable aleatoria discreta (valores que La varianza será igual a la suma del dato al cuadrado multiplicado
por su probabilidad menos la media al cuadrado. Similar a la
puede tomar nuestro evento)
varianza en estadística descriptiva
f(x): Función de probabilidad
Var(x): Varianza de la distribución de La desviación no será más que sacar raíz a la varianza que se
probabilidad calcula con la fórmula de arriba
≤𝑥<𝑥_𝑛 〗 @1 𝑥_𝑛≤𝑥<∞)┤
x y f(x) son la variable aleatoria continua y A diferencia de la VAD, en la VAC se hará igual una función a
la función de distribución de trozosz solo que empezará con 0, continuará con la primitiva (o la
probabilidades, respectivamente integral definida) y terminará en 1
n: Número total de datos La media en la VAD será la misma que la VAC, solo que en lugar
de que sumes valor por valor, harás la suma de los infinitesimales
(integrando). Prácticamente NUNCA vas a integrar de menos
infinito a infinito, solo integrarás en los valores que esté definida
la función.
La media en la VAD será la misma que la VAC, solo que en lugar
de que sumes valor por valor, harás la suma de los infinitesimales
x: Variable aleatoria discreta (valores que (integrando). Prácticamente NUNCA vas a integrar de menos
puede tomar nuestro evento) infinito a infinito, solo integrarás en los valores que esté definida
la función.
f(x): Función de probabilidad
µx: Media o esperanza
𝑓(𝑥)− 〖𝜇x:_𝑥Variable 〗
〗 ^2 𝑑𝑥aleatoria discreta (valores que Al igual que en la varianza para una VAD, en lugar de sumar valor
por valor, sumas infinitesimales (integras). De igual forma,
puede tomar nuestro evento)
NUNCA vas a integrar de menos infinito a infinito, solo en los
f(x): Función de probabilidad valores donde tu integral está definida
=√(𝑉𝑎𝑟(𝑥)) Al igual que en la desviación para una VAD, tu desviación solo
Var(x): Varianza de la distribución de
será la raíz cuadrada de la varianza que calculaste con la fórmula
probabilidad
de arriba
n: Número total de experimentos La distribución binomial solo funciona cuando se dan dos casos, o
que suceda o que no suceda. Para la probabiliad se ocupan los
modelos ya descritos, multiplicamos el número total de casos
que se pueden dar por k veces la probabilidad de que ocurran y
por n-k (veces que no ocurre) la probabilidad que no ocurra. En
▒ 〖 (𝑛¦𝑖) 𝑝^𝑖 𝑞^(p:𝑛−Probabilidad
𝑖) 〗 de ocurrencia
un rango de valores se aplica la misma situación pero sumando
las distintas probabilidades de cada caso
μ: Media de la distribución
En la distribución normal SIEMPRE se te indicará si ese problema
necesita de la distribución, para obtener los valores se hace
mediante la gráfica con el área bajo la curva, obtenida de la tabla
junto con el valor de x que obtuvimos
En la distribución normal SIEMPRE se te indicará si ese problema
σ: Desviación de la distribución necesita de la distribución, para obtener los valores se hace
mediante la gráfica con el área bajo la curva, obtenida de la tabla
n: Número total de experimentos junto con el valor de x que obtuvimos
p: Probabilidad de ocurrencia, obtenida
con el área bajo la curva de la distriución
normal