Estadistica Unidad 6
Estadistica Unidad 6
Estadistica Unidad 6
NARANJOS VERACRUZ
INGENIERIA INDUSTRIAL
Semestre: 2 “d”
VARIABLES ALEATORIAS……………………………………………………………………………………………………………..45
CONCLUSION……………………………………………………………………………………………………………………………….71
REFERENCIAS BIBLIOGRAFICAS…………………………………………………………………………………………………….72
INTRODUCCION
El ser humano especial Se producen características que distinguen a los humanos de otros
animales Es la capacidad de anticipar y “anticipar” los acontecimientos. A veces falla, pero a
menudo no. Esta habilidad nos dio la posibilidad de llegar a la situación actual y anticiparnos tanto
a las amenazas como a las oportunidades. Ahora que lo pienso, los ancestros que pudieron
anticipar los ataques de los depredadores sobrevivieron. Ahora, decenas de miles de años
después, hemos dado un paso más y nos hemos preguntado: ¿Qué es la probabilidad?.
La probabilidad es simplemente qué tan posible es que ocurra un evento determinado. Cuando no
estamos seguros del resultado de un evento, podemos hablar de la probabilidad de ciertos
resultados: qué tan común es que ocurran. Al análisis de los eventos gobernados por la
probabilidad se le llama estadística
ESTADISTICA DESCRIPTIVA
La estadística descriptiva es, junto con la inferencia estadística o estadística inferencial, una de las
dos grandes ramas de la estadística. Su propio nombre lo indica, trata de describir algo. Pero no
describirlo de cualquiera forma, sino de manera cuantitativa. Pensemos en el peso de una caja de
verduras, en la altura de una persona o en la cantidad de dinero que gana una empresa. De estas
variables podríamos decir muchas cosas. Por ejemplo, podríamos indicar que esta o aquella caja
de tomates pesan mucho o pesan menos que otras. Siguiendo con otro ejemplo, podríamos decir
que el ingreso de una empresa varía mucho a lo largo del tiempo o que una persona tiene una
altura promedio.
Para dictar las afirmaciones anteriores, sobre mucho, poco, alto, bajo, muy variable o poco
variable necesitamos variables de medidas. Esto es, necesitamos cuantificarlas, ofrecer un
número. Con esto en mente, podríamos utilizar los gramos o los kilogramos como unidad de
medida para saber el peso de tantas cajas de tomates como consideremos. Una vez pesemos
treinta cajas, sabremos cuales pesan más, cuales pesan menos, que cuantía es la que más se repite
o si existe mucha disparidad entre los pesos de las diferentes cajas.
Con esta idea nace la estadística descriptiva, con la de recoger datos, almacenarlos, realizar tablas
o incluso gráficos que nos ofrezcan información sobre un determinado asunto. Adicionalmente,
nos ofrecen medidas que resumen la información de una gran cantidad de datos.
Los datos agrupados son los que se clasifican en categorías o clases, que es el número de
subconjuntos, tomando como criterio su frecuencia. Se trata de hacer más fácil y de simplificar el
manejo de grandes cantidades de datos y poder así establecer cuáles son sus tendencias. Es
recomendable agruparlos si se trata de 20 o más elementos que tienen características comunes y
pueden ser organizados en categorías, de esta forma se puede conseguir manejar mejor y analizar
en forma más profunda.
Los datos agrupados se organizan en una tabla de frecuencia, siendo esta tabla el número
de veces que cada valor se repite en la serie de datos.
Por su parte, los datos no agrupados constituyen el conjunto de datos que no han sido
clasificados y que son presentados en una tabla de datos en forma individual, es decir que
no forman parte de un conjunto. De manera general constituye una cantidad de
elementos que es menor a 30 con muy poca o nula repetición.
Existen así las medidas de tendencia central para datos no agrupados, cuyos datos se
manejan en forma simple. Primero son recolectados los datos de la población de estudio y
estos son distribuidos en una tabla y analizados sin formar clases, que son el número de
subconjuntos en que se han agrupado los datos con los mismos: cada dato mantiene su
propia identidad luego de que se ha elaborado la distribución de frecuencia.
DATOS NO AGRUPADOS
MEDIA ARITMÉTICA: Para encontrar la media aritmética, sumamos los valores y resultados lo
dividimos entre el número de observaciones o datos.
Para encontrar la media aritmética de datos agrupados primero se calcula el punto medio de cada
clase o intervalo (estos datos pueden ser redondeados) después multiplicamos cada punto medio
por la frecuencia de observaciones de dicha clase, sumamos todos los resultados y dividimos esta
suma entre el número total de observaciones de la muestra.
x = ∑ (f*x)
n
x = Media aritmética para muestra
MEDIANA: Es el valor que queda en el centro de los datos, una vez que estos sean ordenados en
forma ascendente o descendente. Para hallar la mediana de un conjunto de datos se organiza de
forma progresiva; si el conjunto de datos contiene un número impar de elementos el elemento de
en medio del arreglo es la mediana; si hay un número par de observaciones la mediana es el
promedio aritmético de los elementos centrales.
MEDIDAS DE DISPERSIÓN
La media de un conjunto de datos y las demás medidas de tendencia central indican el centro de
una distribución de los datos, pero no proporciona en sí misma una descripción adecuada de un
conjunto de mediciones. Dos conjuntos de mediciones podrían tener distribuciones de frecuencia
muy distintas pero con la misma media, por eso para describir los datos de manera adecuada es
preciso definir medidas de variabilidad de datos.
La medida de variabilidad de más común empleada en estadística es la varianza, esta es útil para
comparar la variación relativa de dos conjuntos de mediciones, pero solo cuando se interpreta en
términos de desviación estándar proporciona información referente a la variación de un solo
conjunto.
ALCANCE
(Rango o recorrido) El alcance es la diferencia entre el más alto y el más pequeño de los valores
observados. Ejemplo: En el caso de la siguiente muestra hallar el alcance.
1.1.3 Medidas de posición.
Medidas de posicion
Las medidas de posicion son valores que permiten dividir el conjunto de datos en partes
porcentuales iguales y se usan para clasificar una observación dentro de una población o muestra.
Las medidas de posición más usuales son los cuartiles, los deciles y los percentiles.
Cuantiles
Los cuartiles son los tres valores de la variable que dividen a un conjunto de datos ordenados en
cuatro partes iguales. % de los datos. Se dividen por 4
Como se calculan?
Deciles
En estadística descriptiva, un decil es cualquiera de los nueve valores que dividen a un grupo de
datos ordenados en diez partes iguales, de manera que cada parte representa1/10 de la muestra o
población.
Como se calculan?
Son aquellas variables que dividen a una distribución en 10 partes iguales, por lo tanto hay 9
deciles. El decil 5 (D5) coincide con la mediana y con el segundo cuartil, es decir D5= Me=Q2 El
cálculo de los Deciles es similar al de los Cuartiles y Percentiles
Las medidas de dispersión tratan, a través del cálculo de diferentes fórmulas, de arrojar un valor
numérico que ofrezca información sobre el grado de variabilidad de una variable.
En otras palabras, las medidas de dispersión son números que indican si una variable se mueve
mucho, poco, más o menos que otra. La razón de ser de este tipo de medidas es conocer de
manera resumida una característica de la variable estudiada. En este sentido, deben acompañar a
las medidas de tendencia central. Juntas, ofrecen información de un sólo vistazo que luego
podremos utilizar para comparar y, si fuera preciso, tomar decisiones.
Rango
El rango es un valor numérico que indica la diferencia entre el valor máximo y el mínimo de una
población o muestra estadística. Su fórmula es:
R = Máxx – Mínx
Donde:
R → Es el rango.
Varianza
La varianza es una medida de dispersión que representa la variabilidad de una serie de datos
respecto a su media. Formalmente se calcula como la suma de los residuos al cuadrado divididos
entre el total de observaciones. Su fórmula es la siguiente:
N → Número de observaciones.
x̄ → Es la media de la variable X.
Desviación típica
La desviación típica es otra medida que ofrece información de la dispersión respecto a la media. Su
cálculo es exactamente el mismo que la varianza, pero realizando la raíz cuadrada de su resultado.
Es decir, la desviación típica es la raíz cuadrada de la varianza.
MEDIDAS DE FORMA
Las medidas de forma son aquellas que nos muestran si una distribución de frecuencia tiene
características especiales como simetría, asimetría, nivel de concentración de datos y nivel de
apuntamiento que la clasifiquen en un tipo particular de distribución.
Una distribución es simétrica cuando al trazar una vertical, en el diagrama de barras o histograma
de una variable, según sea esta discreta o continua, por el valor de la media, esta vertical se
transforma en eje de simetría y entonces decimos que la distribución es simétrica. En caso
contrario, dicha distribución será asimétrica o diremos que presenta asimetría.
La otra medida de forma que vamos a considerar es el apuntamiento, al igual que con la simetría
hemos de tomar una referencia para ver si la distribución de los datos es apuntada o no. La
referencia citada es la distribución normal, y así distinguiremos tres casos:
Los datos agrupados son aquellos que están clasificados en función a un criterio, mostrando una
frecuencia para cada clase o grupo formado.
Es decir, los datos agrupados están separados por categorías, y cada dato u observación solo
puede pertenecer a una categoría (no a dos o más):
Otro asunto importante a mencionar es que, de acuerdo con las fuentes revisadas, se suelen usar
datos agrupados cuando se trata de muestras de más de 20 datos. En cambio, con muestras más
pequeñas, no es tan necesario agrupar.
Una tabla de frecuencias muestra de forma ordenada un conjunto de datos estadísticos y a cada
uno de ellos le asigna una frecuencia que, en pocas palabras, son las veces que se repite un
número o dato.
Puedes usar las tablas de frecuencias para ordenar variables cuantitativas o cualitativas.
Tipos de frecuencias
Frecuencias absolutas: son el número de veces que se repite un número en un conjunto de datos.
Frecuencia relativa: corresponde a las veces que se repite un número en un conjunto de datos
respecto al total, pero se expresa en porcentajes (%).
Las medias de tendencia central o posición nos indican donde se sitúa un dato dentro de una
distribución de datos. Las medidas de dispersión, variabilidad o variación nos indican si esos datos
están próximos entre sí o sí están dispersos, es decir, nos indican cuán esparcidos se encuentran
los datos. Estas medidas de dispersión nos permiten apreciar la distancia que existe entre los
datos a un cierto valor central e identificar la concentración de los mismos en un cierto sector de
la distribución, es decir, permiten estimar cuán dispersas están dos o más distribuciones de datos.
Estas medidas permiten evaluar la confiabilidad del valor del dato central de un conjunto de datos,
siendo la media aritmética el dato central más utilizado. Cuando existe una dispersión pequeña se
dice que los datos están dispersos o acumulados cercanamente respecto a un valor central, en
este caso el dato central es un valor muy representativo. En el caso que la dispersión sea grande el
valor central no es muy confiable. Cuando una distribución de datos tiene poca dispersión toma el
nombre de distribución homogénea y si su dispersión es alta se llama heterogénea.
Las medidas de tendencia central se utilizan con bastante frecuencia para resumir un conjunto de
cantidades o datos numéricos a fin de describir los datos cuantitativos que los forman.
Ejemplos de ello, pueden ser: la edad promedio o la estatura promedio de los estudiantes de la
universidad o el peso promedio de las bolsas de cereal que son llenadas por una determinada
máquina en un proceso de producción o las ventas de un negocio.
3.2. MEDIDAS DE TENDENCIAL A PARTIR DE DATOS NO AGRUPADOS: LA MEDIA, LA MEDIANA, LA
MODA, LA MEDIA PONDERADA, LA GEOMÉTRICA
Las medidas de tendencia central son también frecuentemente usadas para comparar un grupo de
datos con otro, por ejemplo: el promedio de ventas obtenido por un grupo de vendedores de una
zona comparado con el promedio de ventas otro grupo de vendedores de otra zona, el promedio
de reclamos de clientes de una sucursal, comparado con el promedio de reclamos de otra
sucursal.
Otras características generales de las medidas de tendencia central son las siguientes:
Son valores que se calculan para un grupo de datos y que se utiliza para describirlos de alguna
manera
Normalmente se desea que el valor sea representativo de todos los valores incluidos en el grupo.
Es el valor más representativo o típico de un grupo de datos, no es el valor más pequeño o el más
grande, sino un valor que está en algún punto intermedio del grupo, más exactamente, se
acerca a estar al centro de todos los valores, por ello se les llama medidas de tendencia central.
Se utilizan como mecanismo para resumir una característica de un grupo de datos en particular.
El cálculo de las medidas de tendencia central se hace mediante fórmulas, las cuales cambian
según como se encuentren los datos del grupo con el que se va a trabajar, esto es si están como
Datos no agrupados o como Datos agrupados (Distribuciones de frecuencias).
Las medidas de tendencia central que se van a tratar en esta unidad son:
Media Aritmética
Mediana
Moda
Media Geométrica
Media Armónica
Media aritmética
La media es un concepto estadístico básico que representa en un valor las características que
presenta una variable de un conjunto de datos, y sólo puede usarse con variables cuantitativas. La
media puede considerarse un concepto base para la comprensión de variable aleatoria y sus
distribuciones, ya que la distribución se caracteriza principalmente por las medidas de tendencia
central y de dispersión, siendo frecuentemente la media uno de los parámetros de las
distribuciones. (Estrella 2016)
La media aritmética, o promedio aritmético, es la suma de los valores del grupo de datos dividida
entre la cantidad de VALORES
Las medidas de dispersión tratan, a través del cálculo de diferentes fórmulas, de arrojar un valor
numérico que ofrezca información sobre el grado de variabilidad de una variable.
En otras palabras, las medidas de dispersión son números que indican si una variable se mueve
mucho, poco, más o menos que otra. La razón de ser de este tipo de medidas es conocer de
manera resumida una característica de la variable estudiada. En este sentido, deben acompañar a
las medidas de tendencia central. Juntas, ofrecen información de un sólo vistazo que luego
podremos utilizar para comparar y, si fuera preciso, tomar decisiones.
Las medidas de dispersión más conocidas son: el rango, la varianza, la desviación típica y el
coeficiente de variación (no confundir con coeficiente de determinación). A continuación veremos
estas cuatro medidas.
Rango
El rango es un valor numérico que indica la diferencia entre el valor máximo y el mínimo de una
población o muestra estadística. Su fórmula es:
R = Máxx – Mínx
Son aquellos números resúmenes, que indican la morfología de la distribución de los datos,
Sólo se pueden calcular en variables medidas en escala intervalo y de razón. Son el:
CURTOSIS
DISTRIBUCIÓN ASIMÉTRICA
X = Me = Mo
Mo < Me < X
Mo > Me > X
COEFICIENTE DE ASIMETRÍA
derecha
Representaciones gráficas
Si ambas variables
dt<-data.frame(Titanic)
ggplot(dt, aes(x=clase))+
Diagrama de dispersión.
, respectivamente.
Dentro del paquete HistData tenemos el conjunto de datos Galton. Este conjunto de datos
(tomados en 1886 por Francis Galton) corresponde a las estaturas de 928 adultos varones
(variable
).
data(Galton)
Gl<-data.frame(Galton)
ggplot()+
geom_point(data=Gl,
aes(x=parent, y=child),
size=3, color="blue")
Mediante el gráfico 3.5, podemos ver que, a medida que el padre y la madre tienen estatura
mayor (eje
: media de las alturas) los hijos tienen, de manera general, también mayor estatura. Se observa,
por lo tanto, un tipo de relación lineal creciente. Este gráfico se ha realizado mediante la librería
ggplot2 que, obviamente, hay que llamarlo primero, mediante library(ggplot2). La resolución
gráfica es mucho mejor que con los comandos básicos de R, que serían, simplemente:
data(Galton)
2.1 Conjuntos
Las técnicas de conteo son estrategias matemáticas usadas en probabilidad y estadística que
permiten determinar el número total de resultados que pueden haber a partir de hacer
combinaciones dentro de un conjunto o conjuntos de objetos. Este tipo de técnicas se utilizan
cuando es prácticamente imposible o demasiado pesado hacer de forma manual combinaciones
de diferentes elementos y saber cuántas de ellas son posibles.
Este concepto se entenderá de forma más sencilla a través de un ejemplo. Si se tienen cuatro
sillas, una amarilla, una roja, una azul y una verde, ¿cuántas combinaciones de tres de ellas se
pueden hacer ordenadas una al lado de la otra?
2.1.1 Definiciones
Las principales técnicas de conteo son las siguientes cinco, aunque no las únicas, cada una con
unas particularidades propias y utilizadas en función de los requisitos para saber cuántas
combinaciones de conjuntos de objetos son posibles.
Realmente, este tipo de técnicas se pueden dividir en dos grupos, en función de su complejidad,
siendo uno conformado por el principio multiplicativo y el principio aditivo, y el otro, estando
conformado por las combinaciones y las permutaciones.
Las operaciones con conjuntos permiten obtener nuevos conjuntos, partiendo de conjuntos ya
conocidos. A y B serán dos conjuntos cualesquiera de un universal arbitrario U.
Unión
Intersección
Diferencia
Complemento
La unión de los conjuntos A y B, es el conjunto de todos los elementos de A con todos los
elementos de B, sin repetir ninguno y se denota como A∪ B .Esto es:
Ejemplo:
Ejemplo:
A= {3, 6, 8,9}
B= {1, 2, 3, 9,20}
AᴖB= {3,9}
El complemento del conjunto A con respecto al conjunto universal U es el conjunto de todos los
elementos de U que no están en A y se denota como ’A. Esto es:
Ʋ={1,2,3,4,5,6,7,8,9,10}
A={2,4,6,8,10}
‘A={1,3,5,7,9}
La diferencia de los conjuntos A y B (en ese orden) es el conjunto de los elementos que
pertenecen a A y no pertenecen a B y se denota como A− B. Esto es:
A= {2, 3, 5, 7, 10,34}
B= {1, 2, 5, 7, 12,41}
Un diagrama de Venn usa círculos que se superponen u otras figuras para ilustrar las relaciones
lógicas entre dos o más conjuntos de elementos. A menudo, se utilizan para organizar cosas de
forma gráfica, destacando en qué se parecen y difieren los elementos. Los diagramas de Venn,
también denominados "diagramas de conjunto" o "diagramas lógicos", se usan ampliamente en
las áreas de matemática, estadística, lógica, enseñanza, lingüística, informática y negocios. Muchas
personas los vieron por primera vez en la escuela cuando estudiaron Matemática o Lógica, ya que
los diagramas de Venn se convirtieron en una parte del plan de estudio de la "nueva Matemática"
en la década de 1960. Estos pueden ser diagramas sencillos que involucran dos o tres conjuntos
con algunos elementos o pueden volverse muy sofisticados, por ejemplo, en presentaciones en
3D, ya que utilizan seis o siete conjuntos o más. Se usan para hacer un análisis detallado y para
representar cómo se relacionan los elementos entre sí dentro de un "universo" o segmento
determinado. Los diagramas de Venn permiten a los usuarios visualizar los datos de forma clara y
con gran alcance y, por este motivo, se utilizan comúnmente en presentaciones e informes. Se
relacionan estrechamente con los diagramas de Euler, pero se diferencian en que estos últimos
omiten los conjuntos si estos no contienen elementos. Los diagramas de Venn muestran las
relaciones incluso si un conjunto está vacío.
En las operaciones que se incluyen en aritmética, álgebra y análisis matemático se siguen ciertas
condiciones relacionadas con las propiedades numéricas llamadas: neutras, conmutativa,
asociativa y distributiva. Estas propiedades nos permiten simplificar una expresión aplicadas a la
suma y multiplicación. Así vamos a aprender:
Para la SUMA, dicha propiedad nos dice que cualquier número sumado a 0 va a dar como
resultado es el mismo número. Con respecto al cero, no aplica a la multiplicación porque cualquier
número multiplicado por cero nos da cero y no el número original.
4+0=4
Para la MULTIPLICACIÓN, la propiedad del número neutro corresponde al número uno, ya que
cualquier número multiplicado por uno nos da el mismo número original.
6x1=6
PROPIEDAD CONMUTATIVA
Para la SUMA, nos indica que no importa el orden en que se sumen dos números, el resultado
siempre va a ser el mismo.
Nos da la misma respuesta si sumamos 4 + 5 = 9 o 5 + 4 = 9
La conmutatividad en la MULTIPLICACIÓN nos dice que cuando dos o más números son
multiplicados, su orden puede cambiarse sin afectar el resultado.
PROPIEDAD ASOCIATIVA
Para la SUMA, nos indica que los números en una expresión aditiva pueden reagruparse usando
paréntesis. Lo único que indica con los paréntesis, es que los números que se encuentran dentro,
se deben sumar primero.
1) (3 + 4 ) + 5
7+5
12
2) 3 + (4 + 5)
3+9
12
Como puedes observar el paréntesis no afecta el resultado final ya que lo único que indica es
cuales números se suman primero.
1) (3 • 4) • 5
12 • 5
r = 60
2) 3 • (4 • 5)
3 • 20
r = 60
PROPIEDAD DISTRIBUTIVA
Esta propiedad relaciona tanto la propiedad conmutativa como la distributiva, así como las
operaciones de SUMA y MULTIPLICACIÓN.
En el siguiente ejemplo, entre el tres y el paréntesis no hay ningún signo por lo que indica
multiplicación y entre paréntesis se tiene la suma de 5 + 4 por lo que se debe resolver primero y al
final multiplicar el 3 por 9.
3 (5 + 4)
3•9
r = 27
Otra forma de resolverlo es que el factor o número que esta fuera del paréntesis se distribuye en
cada uno de los sumandos que estan dentro del paréntesis. En otras palabras, el número que esta
fuera multiplica por separado cada uno de los números que estan dentro del paréntesis.
3 (5 + 4)
15 + 12
r = 27
Piensa que tienes cinco manzanas y cuatro peras distribuidas en tres canastas, en total vas a tener
27 frutas, pero el total de manzanas son 15 y de peras son 12.
Un diagrama de árbol es un método gráfico para identificar todas las partes necesarias para
alcanzar algún objetivo final. En mejora de la calidad, los diagramas de árbol se utilizan
generalmente para identificar todas las tareas necesarias para implantar una solución. Se trata
pues de un método orientado al despliegue de objetivos.
Los diagramas de árbol resultan adecuados cuando lo que intentamos conseguir es:
Mantener a todo el equipo vinculado a las metas y submetas generales de una tarea, de forma que
se comprenda la totalidad de las acciones que se llevan a cabo.
En cualquier experimento aleatorio la primera cosa que nos preguntamos es sobre lo que puede
pasar. ¿Qué resultados puede ofrecer y cuáles no?
Sería muy interesante disponer de todo el abanico de posibles resultados. En este sentido, al
conjunto formado por todos los posibles resultados elementales de un experimento aleatorio se le
denomina espacio muestral de dicho experimento. Dependiendo de como sea este conjunto, los
espacios muestrales pueden ser:
Espacio muestral discreto finito. Consta de un número finito de elementos, por ejemplo lanzar un
dado.
Espacio muestral discreto infinito. Consta de un número infinito numerable de elementos, por
ejemplo lanzar un dado hasta que salga un cinco.
Dependientes (también llamado "Condicional", donde un evento se ve afectado por otros eventos)
Eventos Independientes
Los eventos pueden ser "independientes", lo que significa que cada evento no se ve afectado por
ningún otro evento.
¡Esta es una idea importante! Una moneda no "sabe" que cayó Cara antes ... cada lanzamiento de
una moneda es una cosa perfectamente aislada.
Ejemplo: Lanzas una moneda y aparece "Cara" tres veces ... ¿cuál es la probabilidad de que el
próximo lanzamiento también sea una "Cara"?
Algunas personas piensan que "está en deuda para que caiga Escudo", pero realmente el próximo
lanzamiento de la moneda es totalmente independiente de cualquier lanzamiento anterior.
Decir "ya debe caer un Escudo" o "solo una vez más, a mi suerte le toca cambiar" se llama La
Falacia del Apostador
Eventos dependientes
Pero los eventos también pueden ser "dependientes" ... lo que significa que pueden verse
afectados por eventos anteriores ...
Ejemplo: tomar 2 cartas de un mazo
Después de tomar una carta del mazo, hay menos cartas disponibles, ¡por lo que las
probabilidades cambian!
Si la primera carta era un Rey, entonces es menos probable que la segunda carta sea un Rey, ya
que solo 3 de las 51 cartas restantes son Reyes.
Si la primera carta no era un Rey, entonces es más probable que la segunda carta sea un Rey, ya
que 4 de las 51 cartas restantes son Rey.
Reemplazo: cuando volvemos a colocar cada tarjeta después de sacarla, las posibilidades no
cambian, ya que los eventos son independientes.
Las técnicas de conteo son una serie de métodos de probabilidad para contar el número posible
de arreglos dentro de un conjunto o varios conjuntos de objetos. Estas se usan cuando realizar las
cuentas de forma manual se convierte en algo complicado debido a la gran cantidad de objetos
y/o variables.
Por ejemplo, es muy sencillo la solución a este problema: imagínate que tu jefe te pide que
cuentes los últimos productos que han llegado en la última hora. En este caso podrías ir y contar
uno a uno los productos. Sin embargo, imagina que el problema es este: tu jefe te pide que
cuentes cuántos grupos de 5 productos del mismo tipo pueden formarse con los que han llegado
la última hora. En este caso, el cálculo se complica. Para este tipo de situaciones se utilizan las
llamadas técnicas de conteo.
Estas técnicas son varias, pero las más importantes se dividen en dos principios básicos, que son el
multiplicativo y el aditivo; las permutaciones y las combinaciones.
PRINCIPIO ADITIVO
El principio multiplicativo es una técnica que se utiliza para resolver problemas de conteo para
hallar la solución sin que sea necesario enumerar sus elementos. Es conocido también como el
principio fundamental del análisis combinatorio; se basa en la multiplicación sucesiva para
determinar la forma en la que puede ocurrir un evento.
Este principio establece que, si una decisión (d 1 ) puede ser tomada de n maneras y otra decisión
(d 2 ) puede tomarse de m maneras, el número total de maneras en las que pueden ser tomadas
las decisiones d 1 y d 2 será igual a multiplicar de n * m. Según el principio, cada decisión se realiza
una tras otra: número de maneras = N 1 * N 2 … * N x maneras
El principio aditivo es una técnica de conteo en probabilidad que permite medir de cuántas
maneras se puede realizar una actividad que, a su vez, tiene varias alternativas para ser realizada,
de las cuales se puede elegir solo una a la vez. Un ejemplo clásico de esto es cuando se quiere
escoger una línea de transporte para ir de un lugar a otro. Para aplicar la regla de la adición los
eventos deben ser mutuamente excluyentes.
El principio aditivo nos dice que la cantidad de maneras que tenemos para realizar este viaje
corresponderá a la suma de cada alternativa (medio de transporte) posible que exista para ir al
lugar deseado, esto incluirá aun los medios de transporte que hagan escala en algún lugar (o
lugares) intermedio.
Combinación
Son eventos similares a las permutaciones. Pero el orden ya no importa y es necesario eliminar de
las permutaciones aquellas donde los elementos se repiten aunque con distinto orden
Una combinación es una selección de objetos sin importar el orden en que se escojan:
Permutación
El número de permutaciones posibles al tomar objetos del conjunto de elementos será, siguiendo
el mismo razonamiento.
Ejemplo : ¿De cuántas formas diferentes se pueden ordenar las letras de la palabra IMPUREZA?
Solución: Puesto que tenemos 8 letras diferentes y las vamos a ordenar en diferentes formas,
tendremos 8 posibilidades de escoger la primera letra para nuestro arreglo, una vez usada una,
nos quedan 7 posibilidades de escoger una segunda letra, y una vez que hayamos usado dos, nos
quedan 6, así sucesivamente hasta agotarlas, en total tenemos:
8 ´ 7 ´ 6 ´ 5 ´ 4 ´ 3 ´ 2 ´ 1 = 40320
PERMUTACIONES CIRCULARES
Ahora estudiaremos algunos ejemplos de arreglos circulares, sabemos que si queremos sentar a
cuatro personas una al lado de la otra en fila, el número de arreglos que podemos hacer es 4!;
ahora bien, si las queremos sentar al rededor de una mesa circular, ¿de cuántas formas lo
podemos hacer?
Por cada una de las permutaciones o arreglos circulares tenemos 4 de ellos diferentes en fila; esto
es, el arreglo circular 1 puede leerse en sentido contrario a las agujas del reloj de las siguientes
formas: ABCD, BCDA, CDAB, y DABC, que son 4 arreglos diferentes si fueran en filas; pero es un
solo arreglo circular. Entonces, en lugar de tener 4! que es el número de arreglos en fila, tenemos
solamente .
Ejemplo 7: ¿ De cuántas formas diferentes se pueden sentar seis alumnos en un salón de clases
con 25 pupitres?
Solución: El primer estudiante puede elegir entre 25 lugares, el segundo tendrá 24 lugares a
escoger, el tercero 23, así sucesivamente; por lo tanto el número de arreglos sin repetición de 25
elementos tomados de 6 en 6 es:
Veamos otra aplicación del principio de la multiplicación. Supongamos que tenemos 20 niños de
un grupo de Preescolar y 10 sabores de helados disponibles. ¿De cuántas formas diferentes
podemos servir un helado a 20 niños?
Al primer niño le podemos servir uno de los 10 sabores, al segundo niño también le podemos
servir los 10 sabores, al tercero también, y así sucesivamente
2.3 Espacio muestral y eventos.
Definición de Espacio muestral (E): es el conjunto de los diferentes resultados que pueden darse
en un experimento aleatorio o cuando se realiza un experimento, que es cualquier proceso que
produce un resultado o una observación, se van a obtener un conjunto de valores. A este conjunto
de valores que puede tomar una variable se le denomina espacio muestral.
Evento Nulo: Es aquél que no tiene elementos elementos. Se representa representa por φ.
Evento Seguro: Es el espacio muestral que puede ser considerado como un evento.
FUNDAMENTOS DE LA PROBABILIDAD
Un axioma es el elemento básico de un sistema de lógica formal y junto con las reglas de
inferencia definen un sistema deductivo.
La palabra viene del griego αξιοειν (axioein) que significa "valorar", que a su vez procede de αξιος
(axios) que significa "valuable" o "digno". Entre los antiguos filósofos griegos, un axioma era
aquello que parecía ser verdadero sin ninguna necesidad de prueba.
La lógica del axioma es partir de una premisa calificada verdadera por sí misma (el axioma) e
inferir sobre esta otras proposiciones por medio del método deductivo, obteniendo conclusiones
coherentes con el axioma. Los axiomas han de cumplir sólo un requisito: de ellos, y sólo de ellos,
han de deducirse todas las demás proposiciones de la teoría dada. Los axiomas de probabilidad
son las condiciones mínimas que deben verificarse para que una función que definimos sobre unos
sucesos determine consistentemente valores de probabilidad sobre dichos sucesos.
Los axiomas de la formulación moderna de la teoría de la probabilidad constituyen una base para
deducir a partir de ellas un amplio número de resultados.
Suponiendo que P(A) y P(B) representan las probabilidades para los dos eventos A y B, entonces
P(A U B) significa la probabilidad de que ocurran A o B. Si representamos los eventos A y B en un
Diagrama de Venn con:
de los fenÛmenos aleatorios en los que los resultados nos son predecibles. La
numÈrica.
dura un foco de luz; se hace una encuesta para medir el n˙mero de personas
Lo que nos preguntamos es: øCÛmo decir cosas no triviales de este tipo de
cada ensayo?
una "tendencia central". Esta tendencia central en la teoria de las probabilidades son los teoremas
lÌmite.
ajenos, a
del espacio muestral sea numerable, es decir, que el n˙mero de elementos del
espacio muestral sea menor o igual que el de los n˙meros naturales (como en el
caso de las poblaciones). Por otro lado, llamaremos evento a cualquier subconjunto del espacio
muestral y denotaremos a los eventos por las primeras letras
Ejemplos :
es el conjunto
= f1; 2; 3; 4; 5; 6g. Como ejemplo de un evento para este experimento podemos deÖnir el
conjunto A = f2; 4; 6g, que corresponde al suceso de
obtener como resultado un n˙mero par. Si al lanzar el dado una vez se obtiene
del evento A.
y B = f|; }; ~; g. Sea C el evento de obtener una carta color rojo, entonces
decir tambiÈn que los eventos A y B son mutuamente excluyentes. Si sucede uno,
En probabilidad, decimos que dos sucesos son independientes si el saber que un acontecimiento
ocurrió no cambia la probabilidad del otro evento.
1/21, slash, 2. ¿Y si supiéramos que ese día era martes? ¿Eso cambiaría la probabilidad de obtener
"águila"? Claro que no. La probabilidad de obtener "águila", dado que es martes, sigue siendo
1
1/21, slash, 2. Así que el resultado de lanzar una moneda y que el día sea martes son eventos
independientes; saber que era martes no cambia la probabilidad de obtener "águila".
No toda situación es así de obvia. ¿Qué pasará con el género y el uso de las manos (zurdo vs
derecho)? Puede parecer que el género de una persona y si es o no zurda son eventos totalmente
independientes. Sin embargo, cuando nos fijamos en las probabilidades, vemos que el
10
10%10, percent de todas las personas son zurdas, pero cerca del
12
12%12, percent de los hombres son zurdos. Así que estos eventos no son independientes, pues
saber que una persona aleatoria es varón aumenta la probabilidad de que sea zurdo.
P(A ∣ B)=P(A)P, left parenthesis, start text, A, space, end text, vertical bar, start text, space, B, end
text, right parenthesis, equals, P, left parenthesis, start text, A, end text, right parenthesis y
P(B ∣ A)=P(B)P, left parenthesis, start text, B, space, end text, vertical bar, start text, space, A, end
text, right parenthesis, equals, P, left parenthesis, start text, B, end text, right parenthesis..
A esta se añade un suceso B cuya ocurrencia proporciona cierta información, porque las
probabilidades de ocurrencia de B son distintas según el suceso Ai que haya ocurrido.
Conociendo que ha ocurrido el suceso B, la fórmula del teorema de Bayes nos indica como
modifica esta información las probabilidades de los sucesos Ai.
Ejemplo: Si seleccionamos una persona al azar, la probabilidad de que sea diabética es 0,03.
Obviamente la probabilidad de que no lo sea es 0,97.
Si no disponemos de información adicional nada más podemos decir, pero supongamos que al
realizar un análisis de sangre los niveles de glucosa son superiores a 1.000 mg/l, lo que ocurre en
el 95% de los diabéticos y sólo en un 2% de las personas sanas.
La respuesta que nos dá el teorema de bayes es que esa información adicional hace que la
probabilidad sea ahora 0,595.
Vemos así que la información proporcionada por el análisis de sangre hace pasar, la probabilidad
inicial de padecer diabetes de 0,03, a 0,595.
Evidentemente si la prueba del análisis de sangre hubiese sido negativa, esta información
modificaría las probabilidades en sentido contrario. En este caso la probabilidad de padecer
diabetes se reduciría a 0,0016.
Una variable es un símbolo que actúa en las funciones, las fórmulas, los algoritmos y las
proposiciones de las matemáticas y la estadística.
Una variable aleatoria es la función que implica eventos posibles a números reales (cifras), cuyos
valores se miden en experimentos de tipo aleatorio. Estos valores posibles representan los
resultados de experimentos que todavía no se llevaron a cabo o cantidades inciertas.
Los experimentos aleatorios son aquellos que, desarrollados bajo las mismas condiciones, pueden
ofrecer resultados diferentes. Por ejemplo, Arrojar una moneda al aire para ver si sale cara o ceca,
lanza un dado, el número de llamadas que tendremos en un día, o una semana, etc.
La variable aleatoria, permite ofrecer una descripción de la probabilidad de que se adoptan ciertos
valores. No se sabe de manera precisa qué valor adoptará la variable cuando sea determinada o
medida, pero sí se puede conocer cómo se distribuyen las probabilidades vinculadas a los valores
posibles. En dicha distribución incide el azar.
DISTRIBUCION MARGINAL
DISTRIBUCION MARGINAL
La distribución marginal es la distribución de probabilidad
Por ejemplo:
Es cuando nos interesa conocer la distribución de un componente por separado, sin tener en
cuenta a el otro componente.
Usos
Características
Una distribución marginal nos da la idea de la forma como depende una probabilidad con respecto
a una sola variable.
Ventajas
Para una variable aleatoria se puede especificar probabilidades para dicha variable sin tener en
cuenta los valores de cuales quiera otras variables aleatorias.
Distribucion Conjunta
En probabilidad, dados dos eventos aleatorios X y Y, la distribución conjunta de X y Y es la
distribución de probabilidad de la intersección de eventos de X y Y, esto es, de los eventos X e Y
ocurriendo de forma simultánea
Su función es:
VARIABLES ALEATORIAS
En probabilidad y estadística, una variable aleatoria es una función que asigna un valor,
usualmente numérico, al resultado de un experimento aleatorio. Por ejemplo, los posibles
resultados de tirar un dado dos veces, etc. o un número real.
Una variable aleatoria es discreta cuando su campo de variación (dominio de definición) está
constituido por un conjunto finito o infinito numerable de valores posibles. Cada suceso de W se
corresponde con un valor .
Ej 1 : ante el experimento : lanzar un dado diez veces se aleatoriza de forma que la variable
aleatoria X = nº de ases que se obtengan : X ={0,1,2,3,4,5,6,7,8,9,10} (v.a. discreta de orden finito)
Ej 2 : ante el experimento : contemplar los coches que pasen por un tramo de carretera se
aleatoriza de forma que la variable aleatoria X = nº de coches que pasen: X={0,1,2,3,...} ( X= N ) (v.
a. discreta de orden infinito)
Una variable aleatoria discreta es el modelo teórico de una variable estadística discreta (con
valores sin agrupar).
Distribuciones discretas
- Uniforme discreta
- Binomial
- Hipergeométrica
- Geométrica
- Binomial negativa
- Pascal
- Poisson
En el Anexo 3 se incluye una tabla que resume las características de estas distribuciones.
puede tomar n valores distintos con la misma probabilidad cada uno de ellos. Un caso
particular de esta distribución, que es la que se incluye en este módulo de Epidat 4, ocurre
cuando los valores son enteros consecutivos. Esta distribución asigna igual probabilidad a
todos los valores enteros entre el límite inferior y el límite superior que definen el recorrido
de la variable. Si la variable puede tomar valores entre a y b, debe ocurrir que b sea mayor
que a, y la variable toma los valores enteros empezando por a, a+1, a+2, etc. hasta el valor
dado perfecto, los valores posibles siguen una distribución uniforme discreta en {1, 2, 3, 4, 5,
Valores:
Parámetros:
a: mínimo, a entero
Ejemplo
El temario de un examen para un proceso selectivo contiene 50 temas, de los cuales se elegirá
uno por sorteo. Si una persona no ha estudiado los 15 últimos temas ¿cuál es la probabilidad
de que salga un tema que haya estudiado?
La variable que representa el número del tema seleccionado para el examen sigue una
distribución uniforme con parámetros a = 1 y b = 50. La persona ha estudiado los temas del 1
al 35; por tanto, la probabilidad que se pide es la cola a la izquierda de 35. Para obtener los
http://dxsp.sergas.es
La persona tiene una probabilidad del 70% de que el tema elegido sea uno de los que haya
estudiado.
La distribución binomial es una distribución discreta muy importante que surge en muchas
experimento que tenga respuesta binaria, generalmente clasificada como “éxito” o “fracaso”;
el número de éxitos en n pruebas independientes de ese experimento, cada una de ellas con
y p, que se denota por (Bi(n,p)). Este modelo se aplica a poblaciones finitas de las que se
producción sea estable (la proporción de piezas defectuosas se mantiene constante a largo
plazo) y sin memoria (el resultado de cada pieza no depende de las anteriores).
Un ejemplo de variable binomial puede ser el número de pacientes con cáncer de pulmón
valores superiores no es posible realizar el cálculo. Esta restricción no debe ser considerada
Los promedios son parte de nuestro diario vivir. Nosotros escuchamos el promedio de lluvia en
una ciudad en un año, el promedio de temperatura en Agosto, el promedio de edad de los
trabajadores de una empresa, entre otros. El objetivo de esta seccióon es mostrar algunas
características numéricas de una distribución poblacional. El más comun promedio utilizado en
estadística es la media o valor esperado o esperanza matemática.
Te recomendamos calcular primero la varianza de la población y luego sacar su raíz cuadrada para
obtener la desviación estándar.
Ten en cuenta que, si tienes una serie de valores de una población y necesitas calcular su varianza
y su desviación estándar, deberás calcular primero la media poblacional µ con la siguiente
fórmula:
a función distribución acumulada $F(x)$ de la variable aleatoria discreta $X$, cuya distribución de
probabilidad es $p(x)$, es la probabilidad de que la variable $X$ sea menor o igual al valor $x.$
Esto es,
MATH
Ejemplo
1. Divida el rango de la variable en subintervalos: $x<0,$ $0/leq x<1$ y $x/geq 1$. Esta división es
realizada de acuerdo a la partición de la recta real dada en la función de probabilidad.
Todas las precisiones realizadas en el capítulo de variables estadísticas son igual de adecuadas en
este caso. Cuando observamos valores de una variable aleatoria continua, existe una limitación en
cuanto al número de valores que puede tomar la misma. Esto es, en la práctica, la variable no
toma infinitos valores. A la hora de medir el peso o la estatura, por ejemplo, se trabaja con un
número preciso de decimales (que puede ser grande pero nunca será infinito). Lo que se está
haciendo es lo que se llama una discretización a la hora de tomar datos. Sin embargo, desde un
punto de vista matemático, consideraremos siempre que una variable continua puede tomar
infinitos valores. Esto nos permitirá trabajar con propiedades matemáticas que nos aportarán
mucha información de la variable considerada.
El valor esperado suele denominarse media o promedio "a largo plazo". Esto significa que a largo
plazo de hacer un experimento una y otra vez, se esperaría este promedio.
Se lanza una moneda y se anota el resultado. ¿Cuál es la probabilidad de que el resultado sea
cara? Si lanza una moneda dos veces, ¿la probabilidad le dice que estos lanzamientos darán como
resultado una cara y una cruz? Puede lanzar una moneda diez veces y registrar nueve caras. Como
aprendió en el 3 - TEMAS DE PROBABILIDAD, la probabilidad no describe los resultados a corto
plazo de un experimento. Ofrece información sobre lo que cabe esperar a largo plazo. ¡Para
demostrarlo, Karl Pearson lanzó una vez una moneda justa 24.000 veces! Registró los resultados
de cada lanzamiento, obteniendo cara 12.012 veces. En su experimento, Pearson ilustró la ley de
los grandes números.
La ley de los grandes números establece que, a medida que aumenta el número de ensayos en un
experimento de probabilidad, la diferencia entre la probabilidad teórica de un evento y la
frecuencia relativa se aproxima a cero (la probabilidad teórica y la frecuencia relativa se acercan
cada vez más). Al evaluar los resultados a largo plazo de los experimentos estadísticos, a menudo
queremos conocer el resultado del “promedio". Este “promedio a largo plazo” se conoce como la
media o valor esperado del experimento y se denota con la letra griega μ. En otras palabras,
después de realizar muchos ensayos de un experimento, se esperaría este valor promedio.
3.1 Varianza
La varianza es una medida de variabilidad que utiliza todos los datos. La varianza está basada en la
diferencia entre el valor de cada observación (xixi) y la media x¯x¯ .(Anderson, Sweeney, and
Williams 2008a).
3.1.1 Fórmulas
Se identifican las fórmulas para varianza poblacional y muestral, dependiendo de los datos a
analizar, si es todas las observaciones de la población y solo una muestra de la misma.
Para efectos de este ejercicio se utiliza mas específicamente la varianza y desviación muestral.
3.1.1.1 Fórmula de varianza poblacional
σ2=∑Ni=1(xi−μ)2N
$$ S^2 =
$$
Continuando con la notación adoptada para la varianza muestral y para la varianza poblacional, se
emplea ςς para denotar la desviación estándar muestral y σσ para denotar la desviación estándar
poblacional.
Como la desviación estándar es la raíz cuadrada de la varianza, las unidades de la varianza, son al
cuadrado, posiblemente dificulta su interpretación, por tanto, la desviación estándar de se
interpreta de mejor manera la variabilidad de los datos porque el valor resultante se mide en las
mismas unidades que los datos originales. (Anderson, Sweeney, and Williams 2008a).
Sea X una variable aleatoria continua con función de densidad de probabilidad f(x). La función de
distribución acumulativa de X es la función:
De forma gráfica, F(x) es el área bajo la curva de densidad a la izquierda de x. Recordemos que
cuando trabajamos con la función de densidad, área es probabilidad.
Además, tenemos algunas fórmulas interesantes que nos servirán para resolver los problemas.
Recuerda también que, al ser una función acumulativa, esta no puede ser decreciente.
3) Ejemplo
Solución:
Es decir, mediante el cálculo de las probabilidades, se usan herramientas matemáticas para hallar
qué tan factible es que suceda un evento. Esto, en el marco de ciertas condiciones.
El cálculo de probabilidades forma parte de la teoría de la probabilidad. Esta es aquella área de las
matemáticas y la estadística que engloba todos los conocimientos relativos a la probabilidad.
Dicho análisis es aplicado, por ejemplo, en los juegos de azar; como el póker.
Una distribución binomial es una distribución de probabilidad discreta que describe el número de
éxitos al realizar n experimentos independientes entre sí, acerca de una variable aleatoria.
Existen una gran diversidad de experimentos o sucesos que pueden ser caracterizados bajo esta
distribución de probabilidad. Imaginemos el lanzamiento de una moneda en el que definimos el
suceso “sacar cara” como el éxito. Si lanzamos 5 veces la moneda y contamos los éxitos (sacar
cara) que obtenemos, nuestra distribución de probabilidades se ajustaría a una distribución
binomial.
Por lo tanto, la distribución binomial se entiende como una serie de pruebas o ensayos en la que
solo podemos tener 2 resultados (éxito o fracaso), siendo el éxito nuestra variable aleatoria.
Para que una variable aleatoria se considere que sigue una distribución binomial, tiene que
cumplir las siguientes propiedades:
Sólo el 2% de la población sabe lo que quiere y cómo lo va a conseguir ¿y tú?
Ver cursos
En cada ensayo, experimento o prueba solo son posibles dos resultados (éxito o fracaso).
El resultado obtenido en cada experimento es independiente del anterior. Por lo tanto, lo que
ocurra en cada experimento no afecta a los siguientes.
Los sucesos son mutuamente excluyentes, es decir, no pueden ocurrir los 2 al mismo tiempo. No
se puede ser hombre y mujer al mismo tiempo o que al lanzar una moneda salga cara y cruz al
mismo tiempo.
Los sucesos son colectivamente exhaustivos, es decir, al menos uno de los 2 ha de ocurrir. Si no se
es hombre, se es mujer y, si se lanza una moneda, si no sale cara ha de salir cruz.
La variable aleatoria que sigue una distribución binomial se suele representar como X~(n,p), donde
n representa el número de ensayos o experimentos y p la probabilidad de éxito.
Por ejemplo, usted recibe un envío de pedido especial de 500 etiquetas. Supongamos que el 2% de
las etiquetas es defectuoso. El conteo de eventos en la población es de 10 (0.02 * 500). Usted
toma una muestra de 40 etiquetas y desea determinar la probabilidad de que haya 3 o más
etiquetas defectuosas en esa muestra. La probabilidad de que haya 3 o más etiquetas defectuosas
en la muestra es de 0.0384.
Distribución binomial
Es uno de los modelos matemáticos que se utiliza cuando la variable aleatoria discreta es el
número de éxitos en una muestra compuesta por n observaciones.
Varianza:
Media:
Características
1. En cada prueba del experimento sólo son posibles dos resultados: el suceso A (éxito) y su
contrario suceso .
2. La probabilidad del suceso A es constante, es decir, que no varía de una prueba a otra. Se
representa por p.
Ejemplo
Varianza:
La distribución geométrica es un modelo adecuado para aquellos procesos en los que se repiten
pruebas hasta la consecución del éxito a resultado deseado y tiene interesantes aplicaciones en los
muestreos realizados de esta manera . También implica la existencia de una dicotomía de posibles
resultados y la independencia de las pruebas entre sí.
Esta distribución se puede hacer derivar de un proceso experimental puro o de Bernouilli en el que
tengamos las siguientes características
siendo (p + q = 1).
Las probabilidades p y q son constantes en todas las pruebas ,por tanto , las pruebas ,son
independientes (si se trata de un proceso de "extracción" éste se llevará a , cabo con devolución
del individuo extraído) .
· (Derivación de la distribución). Si en estas circunstancias aleatorizamos de forma que tomemos
como variable aleatoria X = el número de pruebas necesarias para obtener por primera vez un
éxito o resultado A , esta variable se distribuirá con una distribución geométrica de parámetro p.
Así, considerando que Xi es el número de veces que se presenta el suceso Ai en las m repeticiones
tenemos que la variable n-dimensional (X1, X2, ..., Xn) sigue una distribución multinomial de
parámetros n, p1, ..., pn y su función de probabilidad es
para con .
Hay que tener en cuenta que si (X1, X2, ..., Xn) es una variable multidimensional entonces existe
una relación lineal entre sus componentes ya que X1+ X2+ ...+ Xn = m, por lo que, una de las
variables, por ejemplo Xn, se puede poner como combinación lineal del resto, Xn=m-X1- X2- ...- Xn-
1. Por tanto, el fenómeno que describe la variable (X1, X2, ..., Xn) queda igualmente descrito por
una variable de una dimensión menor, (X1, X2, ..., Xn-1), sin que esta pérdida de dimensión
suponga una pérdida de información.
Por ejemplo, una variable multinomial de dimensión dos (X1, X2), M(n,p1,p2), se puede describir
considerando una cualquiera de sus componentes que tiene una distribución binomial, por lo que
en realidad esta variable es unidimensional y no bidimensional.
Además, cada una de las n variables, Xi, que forman una multinomial M(n,p1,...,pn) siguen
distribuciones binomiales B(m,pi), es decir, las distribuciones marginales de una multinomial son
binomiales, por tanto, la esperanza y la varianza de cada una de estas variables es, E[Xi]=m·pi y
Var(Xi)=mpi(1-pi). Además la covarianza entre dos cualesquiera de sus componentes es, .
En otras palabras, la distribución de Poisson es una distribución de probabilidad discreta que, tan
solo conociendo los eventos y su frecuencia media de ocurrencia, podemos saber su probabilidad.
Dada una variable aleatoria discreta X decimos que su frecuencia se puede aproximar
satisfactoriamente a una distribución de Poisson, tal que:
Proposición
Para cualquier número natural n se tiene una serie de n experimentos independientes con
probabilidad de éxito igual a λ/n en cada experimento; la constante λ es positiva y arbitraria.
Asumamos que Mn es la cantidad de éxitos en la serie n-ésima. Entonce se cumple:
Esta distribución o modelo puede hacerse derivar de un proceso experimental puro o de Bernouilli
en el que se presenten las siguientes condiciones
· Las probabilidades p y q son constantes en todas las pruebas. Todas las pruebas son
independientes. Si se trata de un experimento de extracción éste se llevará cabo con devolución
del individuo extraído, a no ser que se trate de una población en la que el número de individuos
tenga de carácter infinito.
será entonces
f(x) = 1b–a
para a ≤ x ≤ b
y σ=(b–a)212−−−−√
Nos interesa saber el tiempo hasta que ocurre determinado evento, sabiendo que,
El tiempo que pueda ocurrir desde cualquier instante dado t, hasta que ello ocurra en un instante
tf, no depende del tiempo transcurrido anteriormente en el que no ha pasado nada.
El tiempo que tarda una partícula radiactiva en desintegrarse. El conocimiento de la ley que sigue
este evento se utiliza en Ciencia para, por ejemplo, la datación de fósiles o cualquier materia
orgánica mediante la técnica del carbono 14, C14;
formula
Utilice la distribución gamma para modelar valores de datos positivos que sean asimétricos a la
derecha y mayores que 0. La distribución gamma se utiliza comúnmente en estudios de
supervivencia de fiabilidad. Por ejemplo, la distribución gamma puede describir el tiempo que
transcurre para que falle un componente eléctrico. La mayoría de los componentes eléctricos de
un tipo particular fallará aproximadamente en el mismo momento, pero unos pocos tardarán más
en fallar.
La distribución gamma es una distribución continua que se define por sus parámetros de forma y
escala. La distribución gamma de 3 parámetros se define por sus parámetros de forma, escala y
valor umbral. Por ejemplo, en la siguiente gráfica, la distribución gamma se define según valores
de forma y escala diferentes cuando el valor umbral se establece en 0.0. Note que la mayoría de
los valores en una distribución gamma ocurren cercanos entre sí, pero algunos valores quedan al
final de la cola superior.
Muchas variables aleatorias continuas presentan una función de densidad cuya gráfica tiene forma
de campana.
En otras ocasiones, al considerar distribuciones binomiales, tipo B(n,p), para un mismo valor de p
y valores de n cada vez mayores, se ve que sus polígonos de frecuencias se aproximan a una
curva en "forma de campana".
Caracteres fisiológicos, por ejemplo: efecto de una misma dosis de un fármaco, o de una misma
cantidad de abono.
Caracteres sociológicos, por ejemplo: consumo de cierto producto por un mismo grupo de
individuos, puntuaciones de examen.
FUNCIÓN DE DENSIDAD
a dstribución binomial B(n,p) se puede aproximar por una distribución normal, siempre que n sea
grande y p no esté muy próxima a 0 o a 1. La aproximación consiste en utilizar una distribución
normal con la misma media y desviación típica que la distribución binomial.
En cuyo caso :
· La estadística nos permite realizar estudios reales, con poblaciones exactas; lo cual nos ayuda
a mejorar nuestros proyectos.Dentro de una planificación ambiental los datos estadísticos juegan
un papel muy importante, pues nos van a determinar en primera medida gastos y nos garantizara
la eficiencia. Este trabajo evidencia todos y cada uno de los temas vistos dentro del plan semestral
del programa ingeniería industrial lo aquí presentado permitió desarrollar el sentido de
localización de cada uno de los estudiantes pues fijo datos reales a temas teóricos.
Llevar un buen registro de datos estadísticos nos permite conocer de mejor manera el problema,
cuando nosotros conocemos la realidad de nuestras áreas afectadas; es más fácil dar soluciones.
Los diferentes tipos de distribuciones nos permiten prever eventos que puedan ocurrir, teniendo
en cuenta lo que ha sucedido anteriormente (datos históricos).Una de las técnicas mas utilizadas
dentro de la estadística es la medición de parámetros de tendencial central, la moda, mediana y
media. Lo cual nos permite centrar el problema y plantear puntos de referencia.
Para desarrollar un buen proyecto siempre es necesario conocer las bases estadísticas del lugar
donde vayamos a trabajar. Conocer la teoría nos ayuda a enfocar soluciones y conocer la realidad
nos ayuda a contextualizar y a diferenciar soluciones.
REFERENCIAS BIBLIOGRAFICAS
https://edu.gcfglobal.org/es/estadistica-basica/que-es-la-estadistica/1/
https://www.uv.es/ceaces/base/modelos%20de%20probabilidad/binegativa.htm
http://cidecame.uaeh.edu.mx/lcc/mapa/PROYECTO/libro19/52distribucin_exponencial.html
https://matemovil.com/estadistica/
https://www.gestiopolis.com/aplicaciones-de-la-estadistica-en-la-ingenieria/