Estadistica Unidad 6

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 73

INSTITUTO TECNOLOGICO SUPERIOR DE

NARANJOS VERACRUZ

INGENIERIA INDUSTRIAL

Semestre: 2 “d”

DOCENT: Ingeniero Samuel Jiménez

Alumna: Cesia Nayely Morales Sarmientos


Contenido
INTRODUCCION..................................................................................................................................3
ESTADISTICA DESCRIPTIVA.............................................................................................................4
CONJUNTOS Y TECNICAS DE CONTEO......................................................................................17
FUNDAMENTOS DE LA PROBABILIDAD………………………………………………………………………………………..33

VARIABLES ALEATORIAS……………………………………………………………………………………………………………..45

DISTRIBUCIONES DE PROBABILIDAD DISCRETA…………………………………………………………………………..56

DISTRIBUCIONES DE PROBABILIDAD CONTINUA…………………………………………………………………………65

CONCLUSION……………………………………………………………………………………………………………………………….71

REFERENCIAS BIBLIOGRAFICAS…………………………………………………………………………………………………….72
INTRODUCCION

El ser humano especial Se producen características que distinguen a los humanos de otros
animales Es la capacidad de anticipar y “anticipar” los acontecimientos. A veces falla, pero a
menudo no. Esta habilidad nos dio la posibilidad de llegar a la situación actual y anticiparnos tanto
a las amenazas como a las oportunidades. Ahora que lo pienso, los ancestros que pudieron
anticipar los ataques de los depredadores sobrevivieron. Ahora, decenas de miles de años
después, hemos dado un paso más y nos hemos preguntado: ¿Qué es la probabilidad?.

La probabilidad, como muchos conceptos en matemáticas, es una construcción abstracta, por lo


que daremos algunos ejemplos, pero lo harán más fácil de entender.

La probabilidad es simplemente qué tan posible es que ocurra un evento determinado. Cuando no
estamos seguros del resultado de un evento, podemos hablar de la probabilidad de ciertos
resultados: qué tan común es que ocurran. Al análisis de los eventos gobernados por la
probabilidad se le llama estadística
ESTADISTICA DESCRIPTIVA

1.1 INTRODUCCION,NOTACION SUMATORIA

La estadística descriptiva es, junto con la inferencia estadística o estadística inferencial, una de las
dos grandes ramas de la estadística. Su propio nombre lo indica, trata de describir algo. Pero no
describirlo de cualquiera forma, sino de manera cuantitativa. Pensemos en el peso de una caja de
verduras, en la altura de una persona o en la cantidad de dinero que gana una empresa. De estas
variables podríamos decir muchas cosas. Por ejemplo, podríamos indicar que esta o aquella caja
de tomates pesan mucho o pesan menos que otras. Siguiendo con otro ejemplo, podríamos decir
que el ingreso de una empresa varía mucho a lo largo del tiempo o que una persona tiene una
altura promedio.

Para dictar las afirmaciones anteriores, sobre mucho, poco, alto, bajo, muy variable o poco
variable necesitamos variables de medidas. Esto es, necesitamos cuantificarlas, ofrecer un
número. Con esto en mente, podríamos utilizar los gramos o los kilogramos como unidad de
medida para saber el peso de tantas cajas de tomates como consideremos. Una vez pesemos
treinta cajas, sabremos cuales pesan más, cuales pesan menos, que cuantía es la que más se repite
o si existe mucha disparidad entre los pesos de las diferentes cajas.

Con esta idea nace la estadística descriptiva, con la de recoger datos, almacenarlos, realizar tablas
o incluso gráficos que nos ofrezcan información sobre un determinado asunto. Adicionalmente,
nos ofrecen medidas que resumen la información de una gran cantidad de datos.

Los datos agrupados son los que se clasifican en categorías o clases, que es el número de
subconjuntos, tomando como criterio su frecuencia. Se trata de hacer más fácil y de simplificar el
manejo de grandes cantidades de datos y poder así establecer cuáles son sus tendencias. Es
recomendable agruparlos si se trata de 20 o más elementos que tienen características comunes y
pueden ser organizados en categorías, de esta forma se puede conseguir manejar mejor y analizar
en forma más profunda.

Los datos agrupados se organizan en una tabla de frecuencia, siendo esta tabla el número
de veces que cada valor se repite en la serie de datos.

Por su parte, los datos no agrupados constituyen el conjunto de datos que no han sido
clasificados y que son presentados en una tabla de datos en forma individual, es decir que
no forman parte de un conjunto. De manera general constituye una cantidad de
elementos que es menor a 30 con muy poca o nula repetición.
Existen así las medidas de tendencia central para datos no agrupados, cuyos datos se
manejan en forma simple. Primero son recolectados los datos de la población de estudio y
estos son distribuidos en una tabla y analizados sin formar clases, que son el número de
subconjuntos en que se han agrupado los datos con los mismos: cada dato mantiene su
propia identidad luego de que se ha elaborado la distribución de frecuencia.
DATOS NO AGRUPADOS

1.1.2 Medidas de tendencia central.

Las medidas de tendencia central conllevan información respecto al valor promedio de un


conjunto de valores. Las tres medidas de tendencia central de uso más frecuente son: la media, la
moda y la mediana.

MEDIA ARITMÉTICA: Para encontrar la media aritmética, sumamos los valores y resultados lo
dividimos entre el número de observaciones o datos.

DESVENTAJA: Los valores de los extremos afectan a los demás valores.

MEDIA ARITMÉTICA PARA DATOS AGRUPADOS

Para encontrar la media aritmética de datos agrupados primero se calcula el punto medio de cada
clase o intervalo (estos datos pueden ser redondeados) después multiplicamos cada punto medio
por la frecuencia de observaciones de dicha clase, sumamos todos los resultados y dividimos esta
suma entre el número total de observaciones de la muestra.

x = ∑ (f*x)

n
x = Media aritmética para muestra

f = Frecuencia de los datos en la clase o intervalo

x = Punto medio de la clase

n = Número total de datos de la muestra2.

MEDIANA: Es el valor que queda en el centro de los datos, una vez que estos sean ordenados en
forma ascendente o descendente. Para hallar la mediana de un conjunto de datos se organiza de
forma progresiva; si el conjunto de datos contiene un número impar de elementos el elemento de
en medio del arreglo es la mediana; si hay un número par de observaciones la mediana es el
promedio aritmético de los elementos centrales.

MEDIDAS DE DISPERSIÓN

La media de un conjunto de datos y las demás medidas de tendencia central indican el centro de
una distribución de los datos, pero no proporciona en sí misma una descripción adecuada de un
conjunto de mediciones. Dos conjuntos de mediciones podrían tener distribuciones de frecuencia
muy distintas pero con la misma media, por eso para describir los datos de manera adecuada es
preciso definir medidas de variabilidad de datos.

La medida de variabilidad de más común empleada en estadística es la varianza, esta es útil para
comparar la variación relativa de dos conjuntos de mediciones, pero solo cuando se interpreta en
términos de desviación estándar proporciona información referente a la variación de un solo
conjunto.

ALCANCE

(Rango o recorrido) El alcance es la diferencia entre el más alto y el más pequeño de los valores
observados. Ejemplo: En el caso de la siguiente muestra hallar el alcance.
1.1.3 Medidas de posición.

Medidas de posicion

Las medidas de posicion son valores que permiten dividir el conjunto de datos en partes
porcentuales iguales y se usan para clasificar una observación dentro de una población o muestra.
Las medidas de posición más usuales son los cuartiles, los deciles y los percentiles.

Cuantiles

Los cuartiles son los tres valores de la variable que dividen a un conjunto de datos ordenados en
cuatro partes iguales. % de los datos. Se dividen por 4

Como se calculan?

dividen el conjunto en cuatro partes iguales. Por ejemplo, si el conjunto de datos es de 20


elementos, N=20, tendremos que el sujeto del primer cuartil es el (N+1)/4=(20+1)/4=21/4=5,25.

Deciles

En estadística descriptiva, un decil es cualquiera de los nueve valores que dividen a un grupo de
datos ordenados en diez partes iguales, de manera que cada parte representa1/10 de la muestra o
población.

Como se calculan?

Son aquellas variables que dividen a una distribución en 10 partes iguales, por lo tanto hay 9
deciles. El decil 5 (D5) coincide con la mediana y con el segundo cuartil, es decir D5= Me=Q2 El
cálculo de los Deciles es similar al de los Cuartiles y Percentiles

1.1.4 Medidas de dispersión.

Las medidas de dispersión tratan, a través del cálculo de diferentes fórmulas, de arrojar un valor
numérico que ofrezca información sobre el grado de variabilidad de una variable.

En otras palabras, las medidas de dispersión son números que indican si una variable se mueve
mucho, poco, más o menos que otra. La razón de ser de este tipo de medidas es conocer de
manera resumida una característica de la variable estudiada. En este sentido, deben acompañar a
las medidas de tendencia central. Juntas, ofrecen información de un sólo vistazo que luego
podremos utilizar para comparar y, si fuera preciso, tomar decisiones.

Principales medidas de dispersión


Las medidas de dispersión más conocidas son: el rango, la varianza, la desviación típica y el
coeficiente de variación (no confundir con coeficiente de determinación). A continuación veremos
estas cuatro medidas.

Rango

El rango es un valor numérico que indica la diferencia entre el valor máximo y el mínimo de una
población o muestra estadística. Su fórmula es:

R = Máxx – Mínx

Donde:

R → Es el rango.

Máx → Es el valor máximo de la muestra o población.

Mín → Es el valor mínimo de la muestra o población estadística.

x → Es la variable sobre la que se pretende calcular esta medida.

Ejemplos de rango estadístico

Varianza

La varianza es una medida de dispersión que representa la variabilidad de una serie de datos
respecto a su media. Formalmente se calcula como la suma de los residuos al cuadrado divididos
entre el total de observaciones. Su fórmula es la siguiente:

X → Variable sobre la que se pretenden


calcular la varianza

xi → Observación número i de la variable X. i puede tomará valores entre 1 y n.

N → Número de observaciones.

x̄ → Es la media de la variable X.
Desviación típica

La desviación típica es otra medida que ofrece información de la dispersión respecto a la media. Su
cálculo es exactamente el mismo que la varianza, pero realizando la raíz cuadrada de su resultado.
Es decir, la desviación típica es la raíz cuadrada de la varianza.

1.1.5 Medidas de forma.

MEDIDAS DE FORMA

noviembre 30, 2012/en 0. Blog, 5. Plan de Negocios/por Pablo Peñalver

Las medidas de forma son aquellas que nos muestran si una distribución de frecuencia tiene
características especiales como simetría, asimetría, nivel de concentración de datos y nivel de
apuntamiento que la clasifiquen en un tipo particular de distribución.

Para analizar estos asepctos recurriremos a dos tipos de medida:

Coeficiente de asimetria de Fischer.

Coeficiente de curtosis a apuntamiento de Fisher.

COEFIENTE DE ASIMETRÍA DE FISHER

Una distribución es simétrica cuando al trazar una vertical, en el diagrama de barras o histograma
de una variable, según sea esta discreta o continua, por el valor de la media, esta vertical se
transforma en eje de simetría y entonces decimos que la distribución es simétrica. En caso
contrario, dicha distribución será asimétrica o diremos que presenta asimetría.

La asimetría puede ser de dos tipos:

Asimétrica por la derecha.

Asimétrica por la izquierda.


COEFIENTE DE CURTOSIS O APUNTAMIENTO DE FISHER

La otra medida de forma que vamos a considerar es el apuntamiento, al igual que con la simetría
hemos de tomar una referencia para ver si la distribución de los datos es apuntada o no. La
referencia citada es la distribución normal, y así distinguiremos tres casos:

Leptocúrtica, si la distribución es más picuda que la normal,

Mesocúrtica, si la distribución es igual a la normal, y

Platicúrtica, si la distribución es más aplastada que la normal.

1.2 Datos agrupados.

Los datos agrupados son aquellos que están clasificados en función a un criterio, mostrando una
frecuencia para cada clase o grupo formado.

Es decir, los datos agrupados están separados por categorías, y cada dato u observación solo
puede pertenecer a una categoría (no a dos o más):

Debemos recordar que un dato estadístico es la representación de una variable cualitativa o


cuantitativa. Esto, mediante la asignación de un número, letra o símbolo.

Otro asunto importante a mencionar es que, de acuerdo con las fuentes revisadas, se suelen usar
datos agrupados cuando se trata de muestras de más de 20 datos. En cambio, con muestras más
pequeñas, no es tan necesario agrupar.

1.2.1 Tabla de frecuencia.

Una tabla de frecuencias muestra de forma ordenada un conjunto de datos estadísticos y a cada
uno de ellos le asigna una frecuencia que, en pocas palabras, son las veces que se repite un
número o dato.
Puedes usar las tablas de frecuencias para ordenar variables cuantitativas o cualitativas.

Tipos de frecuencias

Frecuencias absolutas: son el número de veces que se repite un número en un conjunto de datos.

Frecuencias absolutas acumuladas: es la suma de las frecuencias absolutas.

Frecuencia relativa: corresponde a las veces que se repite un número en un conjunto de datos
respecto al total, pero se expresa en porcentajes (%).

Frecuencia relativa acumulada: es la suma de las frecuencias relativas.

1.2.2 Medidas de tendencia central y de posición.

Las medias de tendencia central o posición nos indican donde se sitúa un dato dentro de una
distribución de datos. Las medidas de dispersión, variabilidad o variación nos indican si esos datos
están próximos entre sí o sí están dispersos, es decir, nos indican cuán esparcidos se encuentran
los datos. Estas medidas de dispersión nos permiten apreciar la distancia que existe entre los
datos a un cierto valor central e identificar la concentración de los mismos en un cierto sector de
la distribución, es decir, permiten estimar cuán dispersas están dos o más distribuciones de datos.
Estas medidas permiten evaluar la confiabilidad del valor del dato central de un conjunto de datos,
siendo la media aritmética el dato central más utilizado. Cuando existe una dispersión pequeña se
dice que los datos están dispersos o acumulados cercanamente respecto a un valor central, en
este caso el dato central es un valor muy representativo. En el caso que la dispersión sea grande el
valor central no es muy confiable. Cuando una distribución de datos tiene poca dispersión toma el
nombre de distribución homogénea y si su dispersión es alta se llama heterogénea.

Las medidas de tendencia central se utilizan con bastante frecuencia para resumir un conjunto de
cantidades o datos numéricos a fin de describir los datos cuantitativos que los forman.

Ejemplos de ello, pueden ser: la edad promedio o la estatura promedio de los estudiantes de la
universidad o el peso promedio de las bolsas de cereal que son llenadas por una determinada
máquina en un proceso de producción o las ventas de un negocio.
3.2. MEDIDAS DE TENDENCIAL A PARTIR DE DATOS NO AGRUPADOS: LA MEDIA, LA MEDIANA, LA
MODA, LA MEDIA PONDERADA, LA GEOMÉTRICA

Las medidas de tendencia central son también frecuentemente usadas para comparar un grupo de
datos con otro, por ejemplo: el promedio de ventas obtenido por un grupo de vendedores de una
zona comparado con el promedio de ventas otro grupo de vendedores de otra zona, el promedio
de reclamos de clientes de una sucursal, comparado con el promedio de reclamos de otra
sucursal.

Otras características generales de las medidas de tendencia central son las siguientes:

Permiten apreciar qué tanto se parecen lo grupos entre sí.

Son valores que se calculan para un grupo de datos y que se utiliza para describirlos de alguna
manera

Normalmente se desea que el valor sea representativo de todos los valores incluidos en el grupo.

Es el valor más representativo o típico de un grupo de datos, no es el valor más pequeño o el más
grande, sino un valor que está en algún punto intermedio del grupo, más exactamente, se
acerca a estar al centro de todos los valores, por ello se les llama medidas de tendencia central.

Se utilizan como mecanismo para resumir una característica de un grupo de datos en particular.

También para comparar un grupo de datos contra otro.

El cálculo de las medidas de tendencia central se hace mediante fórmulas, las cuales cambian
según como se encuentren los datos del grupo con el que se va a trabajar, esto es si están como
Datos no agrupados o como Datos agrupados (Distribuciones de frecuencias).

Un campo fundamental de la estadística es el de las llamadas medidas de centralización y de


dispersión, que son las que se usan para resumir o describir una colección más o menos numerosa
de datos numéricos. En inglés las medidas de centralización se denominan averages e incluyen lo
que en castellano llamamos media, mediana y moda, a las que en conjunto suele denominarse
«promedios» (Tapia Granados 2001)

Las medidas de tendencia central que se van a tratar en esta unidad son:
Media Aritmética

Mediana

Moda

Media Geométrica

Media Armónica

Media aritmética

La media es un concepto estadístico básico que representa en un valor las características que
presenta una variable de un conjunto de datos, y sólo puede usarse con variables cuantitativas. La
media puede considerarse un concepto base para la comprensión de variable aleatoria y sus
distribuciones, ya que la distribución se caracteriza principalmente por las medidas de tendencia
central y de dispersión, siendo frecuentemente la media uno de los parámetros de las
distribuciones. (Estrella 2016)

La media aritmética, o promedio aritmético, es la suma de los valores del grupo de datos dividida
entre la cantidad de VALORES

1.2.3 Medidas de dispersión.

Las medidas de dispersión tratan, a través del cálculo de diferentes fórmulas, de arrojar un valor
numérico que ofrezca información sobre el grado de variabilidad de una variable.

En otras palabras, las medidas de dispersión son números que indican si una variable se mueve
mucho, poco, más o menos que otra. La razón de ser de este tipo de medidas es conocer de
manera resumida una característica de la variable estudiada. En este sentido, deben acompañar a
las medidas de tendencia central. Juntas, ofrecen información de un sólo vistazo que luego
podremos utilizar para comparar y, si fuera preciso, tomar decisiones.

Principales medidas de dispersión

Las medidas de dispersión más conocidas son: el rango, la varianza, la desviación típica y el
coeficiente de variación (no confundir con coeficiente de determinación). A continuación veremos
estas cuatro medidas.
Rango

El rango es un valor numérico que indica la diferencia entre el valor máximo y el mínimo de una
población o muestra estadística. Su fórmula es:

R = Máxx – Mínx

1.2.4 Medidas de asimetría y curtosis.

Medidas de asimetría y curtosis

Son aquellos números resúmenes, que indican la morfología de la distribución de los datos,

es decir de la simetría y apuntamiento que tiene el histograma de la variable en estudio.

Sólo se pueden calcular en variables medidas en escala intervalo y de razón. Son el:

 SESGO (COEFICIENTE DE ASIMETRIA)

 CURTOSIS

TIPOS DE DISTRIBUCIONES DE FRECUENCIA MÁS COMUNES

DISTRIBUCIÓN ASIMÉTRICA

RELACIÓN ENTRE LA MEDIA, MEDIANA Y MODA

X = Me = Mo

Cuando una distribución de frecuencia es simétrica, la

media, mediana y moda coinciden en su valor ( X = Me

= Mo). En el caso de una distribución binomial simétrica,

es necesario calcular el promedio de las modas.

Mo < Me < X

En una distribución sesgada a la izquierda, la moda es

menor a la mediana, y esta a su vez menor que la


media.

Mo > Me > X

En una distribución sesgada a la derecha la relación

se invierte, la moda es mayor a la mediana, y esta a

su vez mayor que la media.

COEFICIENTE DE ASIMETRÍA

Mide el grado de asimetría de la distribución con respecto a la media. Un valor positivo de

este indicador significa que la distribución se encuentra sesgada hacia la izquierda

(orientación positiva). Un resultado negativo significa que la distribución se sesga a la

derecha

1.3 Representaciones gráficas.

Representaciones gráficas

Si ambas variables

son cuantitativas discretas o atributos, se puede realizar un diagrama de barras simultaneo de


ambas variables.

Gráfico de barras a partir de la tabla de contingencia anterior.

dt<-data.frame(Titanic)

ggplot(dt, aes(x=clase))+

geom_bar( aes(fill= sobrevivio), position="dodge")


1.3.1 Diagrama de Dispersión.

Diagrama de dispersión.

Consiste en representar, en un plano, las coordenadas

correspondiente a los valores de

, respectivamente.

Dentro del paquete HistData tenemos el conjunto de datos Galton. Este conjunto de datos
(tomados en 1886 por Francis Galton) corresponde a las estaturas de 928 adultos varones
(variable

) y la estatura media del padre y la madre (variable

).

data(Galton)

Gl<-data.frame(Galton)
ggplot()+

geom_point(data=Gl,

aes(x=parent, y=child),

size=3, color="blue")

Mediante el gráfico 3.5, podemos ver que, a medida que el padre y la madre tienen estatura
mayor (eje

: media de las alturas) los hijos tienen, de manera general, también mayor estatura. Se observa,
por lo tanto, un tipo de relación lineal creciente. Este gráfico se ha realizado mediante la librería
ggplot2 que, obviamente, hay que llamarlo primero, mediante library(ggplot2). La resolución
gráfica es mucho mejor que con los comandos básicos de R, que serían, simplemente:

data(Galton)

plot(Galton$parent, Galton$child, col="blue")

1.4 Teorema de Chebyshev.

La desigualdad de Chebyshev es un teorema utilizado en estadística que proporciona una


estimación conservadora (intervalo de confianza) de la probabilidad de que una variable aleatoria
con varianza finita se sitúe a una cierta distancia de su esperanza matemática o de su media.

CONJUNTOS Y TECNICAS DE CONTEO

2.1 Conjuntos
Las técnicas de conteo son estrategias matemáticas usadas en probabilidad y estadística que
permiten determinar el número total de resultados que pueden haber a partir de hacer
combinaciones dentro de un conjunto o conjuntos de objetos. Este tipo de técnicas se utilizan
cuando es prácticamente imposible o demasiado pesado hacer de forma manual combinaciones
de diferentes elementos y saber cuántas de ellas son posibles.

Este concepto se entenderá de forma más sencilla a través de un ejemplo. Si se tienen cuatro
sillas, una amarilla, una roja, una azul y una verde, ¿cuántas combinaciones de tres de ellas se
pueden hacer ordenadas una al lado de la otra?

Se podría resolver a este problema haciéndolo manualmente,

2.1.1 Definiciones

Las principales técnicas de conteo son las siguientes cinco, aunque no las únicas, cada una con
unas particularidades propias y utilizadas en función de los requisitos para saber cuántas
combinaciones de conjuntos de objetos son posibles.

Realmente, este tipo de técnicas se pueden dividir en dos grupos, en función de su complejidad,
siendo uno conformado por el principio multiplicativo y el principio aditivo, y el otro, estando
conformado por las combinaciones y las permutaciones.

2.1.2 Operaciones: Unión, intersección, complemento, diferencia.

Las operaciones con conjuntos permiten obtener nuevos conjuntos, partiendo de conjuntos ya
conocidos. A y B serán dos conjuntos cualesquiera de un universal arbitrario U.

Las operaciones que se utilizan son:

Unión

Intersección

Diferencia

Complemento
La unión de los conjuntos A y B, es el conjunto de todos los elementos de A con todos los
elementos de B, sin repetir ninguno y se denota como A∪ B .Esto es:

Unión A U B {x|x ϵ A o xϵB o a ambos}

Ejemplo:

Sean los conjuntos A= {1, 3, 5, 7,9} y B= {10, 11,12}

La intersección de los conjuntos A y B es el conjunto de los elementos de A que también


pertenecen a B y se denota como A∩ B. Esto es:

Intersección A ∩ B {x|x ϵ A y xϵB}

Ejemplo:

A= {3, 6, 8,9}
B= {1, 2, 3, 9,20}

AᴖB= {3,9}

El complemento del conjunto A con respecto al conjunto universal U es el conjunto de todos los
elementos de U que no están en A y se denota como ’A. Esto es:

Ʋ={1,2,3,4,5,6,7,8,9,10}

A={2,4,6,8,10}

‘A={1,3,5,7,9}

La diferencia de los conjuntos A y B (en ese orden) es el conjunto de los elementos que
pertenecen a A y no pertenecen a B y se denota como A− B. Esto es:

Diferencia A- B {x|x ϵ A o x|B}


Ejemplo:

A= {2, 3, 5, 7, 10,34}

B= {1, 2, 5, 7, 12,41}

A-B= {5, 10, 34,3}

2.1.3 Diagrama de Venn.

Un diagrama de Venn usa círculos que se superponen u otras figuras para ilustrar las relaciones
lógicas entre dos o más conjuntos de elementos. A menudo, se utilizan para organizar cosas de
forma gráfica, destacando en qué se parecen y difieren los elementos. Los diagramas de Venn,
también denominados "diagramas de conjunto" o "diagramas lógicos", se usan ampliamente en
las áreas de matemática, estadística, lógica, enseñanza, lingüística, informática y negocios. Muchas
personas los vieron por primera vez en la escuela cuando estudiaron Matemática o Lógica, ya que
los diagramas de Venn se convirtieron en una parte del plan de estudio de la "nueva Matemática"
en la década de 1960. Estos pueden ser diagramas sencillos que involucran dos o tres conjuntos
con algunos elementos o pueden volverse muy sofisticados, por ejemplo, en presentaciones en
3D, ya que utilizan seis o siete conjuntos o más. Se usan para hacer un análisis detallado y para
representar cómo se relacionan los elementos entre sí dentro de un "universo" o segmento
determinado. Los diagramas de Venn permiten a los usuarios visualizar los datos de forma clara y
con gran alcance y, por este motivo, se utilizan comúnmente en presentaciones e informes. Se
relacionan estrechamente con los diagramas de Euler, pero se diferencian en que estos últimos
omiten los conjuntos si estos no contienen elementos. Los diagramas de Venn muestran las
relaciones incluso si un conjunto está vacío.

2.1.4 Leyes: conmutativa, asociativa, distributiva.

En las operaciones que se incluyen en aritmética, álgebra y análisis matemático se siguen ciertas
condiciones relacionadas con las propiedades numéricas llamadas: neutras, conmutativa,
asociativa y distributiva. Estas propiedades nos permiten simplificar una expresión aplicadas a la
suma y multiplicación. Así vamos a aprender:

Las propiedades de los elementos neutros para la suma y multiplicación

La propiedad conmutativa para la suma y multiplicación

La propiedad distributiva para la suma y multiplicación

La propiedad asociativa que combina ambas, la suma y la multiplicación.

PROPIEDAD DEL ELEMENTO NEUTRO

Para la SUMA, dicha propiedad nos dice que cualquier número sumado a 0 va a dar como
resultado es el mismo número. Con respecto al cero, no aplica a la multiplicación porque cualquier
número multiplicado por cero nos da cero y no el número original.

4+0=4

Para la MULTIPLICACIÓN, la propiedad del número neutro corresponde al número uno, ya que
cualquier número multiplicado por uno nos da el mismo número original.

6x1=6

PROPIEDAD CONMUTATIVA

Para la SUMA, nos indica que no importa el orden en que se sumen dos números, el resultado
siempre va a ser el mismo.
Nos da la misma respuesta si sumamos 4 + 5 = 9 o 5 + 4 = 9

Esta ley solo aplica a la SUMA, y no a la resta.

La conmutatividad en la MULTIPLICACIÓN nos dice que cuando dos o más números son
multiplicados, su orden puede cambiarse sin afectar el resultado.

Por ejemplo, se obtiene el mismo resultado si multiplicas 5 • 6 = 30 o si multiplicas 6 • 5 = 30 .

PROPIEDAD ASOCIATIVA

Para la SUMA, nos indica que los números en una expresión aditiva pueden reagruparse usando
paréntesis. Lo único que indica con los paréntesis, es que los números que se encuentran dentro,
se deben sumar primero.

1) (3 + 4 ) + 5

7+5

12

2) 3 + (4 + 5)

3+9

12
Como puedes observar el paréntesis no afecta el resultado final ya que lo único que indica es
cuales números se suman primero.

La propiedad asociativa para la MULTIPLICACIÓN tiene la misma función que en la suma, se


agrupan dos números y se resuelve primero lo que está dentro del paréntesis.

1) (3 • 4) • 5

12 • 5

r = 60

2) 3 • (4 • 5)

3 • 20

r = 60

Así, es lo mismo (3 • 4) • 5 que 3 • (4 • 5)

PROPIEDAD DISTRIBUTIVA

Esta propiedad relaciona tanto la propiedad conmutativa como la distributiva, así como las
operaciones de SUMA y MULTIPLICACIÓN.
En el siguiente ejemplo, entre el tres y el paréntesis no hay ningún signo por lo que indica
multiplicación y entre paréntesis se tiene la suma de 5 + 4 por lo que se debe resolver primero y al
final multiplicar el 3 por 9.

3 (5 + 4)

3•9

r = 27

Otra forma de resolverlo es que el factor o número que esta fuera del paréntesis se distribuye en
cada uno de los sumandos que estan dentro del paréntesis. En otras palabras, el número que esta
fuera multiplica por separado cada uno de los números que estan dentro del paréntesis.

3 (5 + 4)

15 + 12

r = 27

Piensa que tienes cinco manzanas y cuatro peras distribuidas en tres canastas, en total vas a tener
27 frutas, pero el total de manzanas son 15 y de peras son 12.

Estas propiedades también se aplican en álgebra y en la siguiente tabla se ilustran algunos


ejemplos.

2.1.5 Diagrama de árbol.

Un diagrama de árbol es un método gráfico para identificar todas las partes necesarias para
alcanzar algún objetivo final. En mejora de la calidad, los diagramas de árbol se utilizan
generalmente para identificar todas las tareas necesarias para implantar una solución. Se trata
pues de un método orientado al despliegue de objetivos.

Un diagrama de árbol es una representación gráfica de un experimento que consta de r pasos,


donde cada uno de los pasos tiene un número finito de maneras de ser llevado a cabo.

Los diagramas de árbol resultan adecuados cuando lo que intentamos conseguir es:

Mantener a todo el equipo vinculado a las metas y submetas generales de una tarea, de forma que
se comprenda la totalidad de las acciones que se llevan a cabo.

Enfatizar la importancia de crear soluciones para problemas ya detectados, e identificar los


posibles problemas que generan las soluciones detectadas.

2.1.6 Espacio muestral.

En cualquier experimento aleatorio la primera cosa que nos preguntamos es sobre lo que puede
pasar. ¿Qué resultados puede ofrecer y cuáles no?

Sería muy interesante disponer de todo el abanico de posibles resultados. En este sentido, al
conjunto formado por todos los posibles resultados elementales de un experimento aleatorio se le
denomina espacio muestral de dicho experimento. Dependiendo de como sea este conjunto, los
espacios muestrales pueden ser:

Espacio muestral discreto finito. Consta de un número finito de elementos, por ejemplo lanzar un
dado.

Espacio muestral discreto infinito. Consta de un número infinito numerable de elementos, por
ejemplo lanzar un dado hasta que salga un cinco.

Espacio muestral continuo. Consta de un número infinito no numerable de elementos, por


ejemplo todas las medidas posibles de espárragos extraidos aleatoriamente de una población.

2.1.7 Tipos de Evento

Los eventos pueden ser:


Independientes (cada evento no se ve afectado por otros eventos),

Dependientes (también llamado "Condicional", donde un evento se ve afectado por otros eventos)

Mutuamente Excluyentes (los eventos no pueden suceder al mismo tiempo)

Veamos cada uno de esos tipos.

Eventos Independientes

Los eventos pueden ser "independientes", lo que significa que cada evento no se ve afectado por
ningún otro evento.

¡Esta es una idea importante! Una moneda no "sabe" que cayó Cara antes ... cada lanzamiento de
una moneda es una cosa perfectamente aislada.

Ejemplo: Lanzas una moneda y aparece "Cara" tres veces ... ¿cuál es la probabilidad de que el
próximo lanzamiento también sea una "Cara"?

La probabilidad es simplemente 1/2 o 50% como en CUALQUIER lanzamiento de la moneda.

¡Lo que ocurrió en el pasado no afectará el lanzamiento actual!

Algunas personas piensan que "está en deuda para que caiga Escudo", pero realmente el próximo
lanzamiento de la moneda es totalmente independiente de cualquier lanzamiento anterior.

Decir "ya debe caer un Escudo" o "solo una vez más, a mi suerte le toca cambiar" se llama La
Falacia del Apostador

Aprende más en Eventos Independientes.

Eventos dependientes

Pero los eventos también pueden ser "dependientes" ... lo que significa que pueden verse
afectados por eventos anteriores ...
Ejemplo: tomar 2 cartas de un mazo

Después de tomar una carta del mazo, hay menos cartas disponibles, ¡por lo que las
probabilidades cambian!

Veamos las posibilidades de obtener un Rey.

Para la primera carta, la posibilidad de sacar un Rey es 4 de 52

Pero para la segunda carta:

Si la primera carta era un Rey, entonces es menos probable que la segunda carta sea un Rey, ya
que solo 3 de las 51 cartas restantes son Reyes.

Si la primera carta no era un Rey, entonces es más probable que la segunda carta sea un Rey, ya
que 4 de las 51 cartas restantes son Rey.

Esto se debe a que estamos quitando cartas del mazo.

Reemplazo: cuando volvemos a colocar cada tarjeta después de sacarla, las posibilidades no
cambian, ya que los eventos son independientes.

Sin reemplazo: las posibilidades cambiarán y los eventos son dependientes.

Te sugiero leer nuestra página de Eventos Dependientes: Probabilidad Condicional

2.2 Técnicas de conteo

Las técnicas de conteo son una serie de métodos de probabilidad para contar el número posible
de arreglos dentro de un conjunto o varios conjuntos de objetos. Estas se usan cuando realizar las
cuentas de forma manual se convierte en algo complicado debido a la gran cantidad de objetos
y/o variables.

Por ejemplo, es muy sencillo la solución a este problema: imagínate que tu jefe te pide que
cuentes los últimos productos que han llegado en la última hora. En este caso podrías ir y contar
uno a uno los productos. Sin embargo, imagina que el problema es este: tu jefe te pide que
cuentes cuántos grupos de 5 productos del mismo tipo pueden formarse con los que han llegado
la última hora. En este caso, el cálculo se complica. Para este tipo de situaciones se utilizan las
llamadas técnicas de conteo.

Estas técnicas son varias, pero las más importantes se dividen en dos principios básicos, que son el
multiplicativo y el aditivo; las permutaciones y las combinaciones.

2.2.1 Principio multiplicativo.

PRINCIPIO ADITIVO

El principio multiplicativo es una técnica que se utiliza para resolver problemas de conteo para
hallar la solución sin que sea necesario enumerar sus elementos. Es conocido también como el
principio fundamental del análisis combinatorio; se basa en la multiplicación sucesiva para
determinar la forma en la que puede ocurrir un evento.

Este principio establece que, si una decisión (d 1 ) puede ser tomada de n maneras y otra decisión
(d 2 ) puede tomarse de m maneras, el número total de maneras en las que pueden ser tomadas
las decisiones d 1 y d 2 será igual a multiplicar de n * m. Según el principio, cada decisión se realiza
una tras otra: número de maneras = N 1 * N 2 … * N x maneras

2.2.2 Principio aditivo.

El principio aditivo es una técnica de conteo en probabilidad que permite medir de cuántas
maneras se puede realizar una actividad que, a su vez, tiene varias alternativas para ser realizada,
de las cuales se puede elegir solo una a la vez. Un ejemplo clásico de esto es cuando se quiere
escoger una línea de transporte para ir de un lugar a otro. Para aplicar la regla de la adición los
eventos deben ser mutuamente excluyentes.

El principio aditivo nos dice que la cantidad de maneras que tenemos para realizar este viaje
corresponderá a la suma de cada alternativa (medio de transporte) posible que exista para ir al
lugar deseado, esto incluirá aun los medios de transporte que hagan escala en algún lugar (o
lugares) intermedio.

2.2.3 Permutaciones, combinaciones, permutación circular, permutación con repetición.

Combinación

Son eventos similares a las permutaciones. Pero el orden ya no importa y es necesario eliminar de
las permutaciones aquellas donde los elementos se repiten aunque con distinto orden

Una combinación es una selección de objetos sin importar el orden en que se escojan:

Permutación

Son eventos de tipo multiplicativo, donde el número de posibilidades va disminuyendo y si


importa el orden una permutación es un arreglo de un conjunto de objetos en un orden definido.
El número de permutaciones diferentes de estos objetos es ; esto se vé fácilmente si pensamos
que para la primera alternativa disponemos de los elementos del conjunto, cada uno de los cuales
puede complementarse con los restantes como segunda opción, y así hasta llegar a la última
elección, conformando el producto .

El número de permutaciones posibles al tomar objetos del conjunto de elementos será, siguiendo
el mismo razonamiento.

PERMUTACIONES SIN REPETICIÓN DE n ELEMENTOS TOMADOS TODOS A LA VEZ

Ejemplo : ¿De cuántas formas diferentes se pueden ordenar las letras de la palabra IMPUREZA?

Solución: Puesto que tenemos 8 letras diferentes y las vamos a ordenar en diferentes formas,
tendremos 8 posibilidades de escoger la primera letra para nuestro arreglo, una vez usada una,
nos quedan 7 posibilidades de escoger una segunda letra, y una vez que hayamos usado dos, nos
quedan 6, así sucesivamente hasta agotarlas, en total tenemos:

8 ´ 7 ´ 6 ´ 5 ´ 4 ´ 3 ´ 2 ´ 1 = 40320

PERMUTACIONES CIRCULARES

Ahora estudiaremos algunos ejemplos de arreglos circulares, sabemos que si queremos sentar a
cuatro personas una al lado de la otra en fila, el número de arreglos que podemos hacer es 4!;
ahora bien, si las queremos sentar al rededor de una mesa circular, ¿de cuántas formas lo
podemos hacer?

Observemos los siguientes arreglos:

Por cada una de las permutaciones o arreglos circulares tenemos 4 de ellos diferentes en fila; esto
es, el arreglo circular 1 puede leerse en sentido contrario a las agujas del reloj de las siguientes
formas: ABCD, BCDA, CDAB, y DABC, que son 4 arreglos diferentes si fueran en filas; pero es un
solo arreglo circular. Entonces, en lugar de tener 4! que es el número de arreglos en fila, tenemos
solamente .

PERMUTACIONES SIN REPETICIÓN

Ejemplo 7: ¿ De cuántas formas diferentes se pueden sentar seis alumnos en un salón de clases
con 25 pupitres?

Solución: El primer estudiante puede elegir entre 25 lugares, el segundo tendrá 24 lugares a
escoger, el tercero 23, así sucesivamente; por lo tanto el número de arreglos sin repetición de 25
elementos tomados de 6 en 6 es:

Esto se simboliza por =

PERMUTACIONES CON REPETICIÓN

Veamos otra aplicación del principio de la multiplicación. Supongamos que tenemos 20 niños de
un grupo de Preescolar y 10 sabores de helados disponibles. ¿De cuántas formas diferentes
podemos servir un helado a 20 niños?

Al primer niño le podemos servir uno de los 10 sabores, al segundo niño también le podemos
servir los 10 sabores, al tercero también, y así sucesivamente
2.3 Espacio muestral y eventos.

Definición de Espacio muestral (E): es el conjunto de los diferentes resultados que pueden darse
en un experimento aleatorio o cuando se realiza un experimento, que es cualquier proceso que
produce un resultado o una observación, se van a obtener un conjunto de valores. A este conjunto
de valores que puede tomar una variable se le denomina espacio muestral.

Evento: Un Evento es un resultado particular de un experimento aleatorio. En términos de


conjuntos, un evento es un subconjunto del espacio muestral. Por lo general se le representa por
las primeras letras del alfabeto.

A: Que salga un número p a r al lanza r un dado.

E: Que haya que esperar más de 10 minutos para ser atendidos.

Evento Nulo: Es aquél que no tiene elementos elementos. Se representa representa por φ.

Evento Seguro: Es el espacio muestral que puede ser considerado como un evento.
FUNDAMENTOS DE LA PROBABILIDAD

3.1 Concepto clásico y como frecuencia relativa.

El concepto de probabilidad surge para medir la certeza o incertidumbre de un suceso de un


experimento aleatorio. Históricamente, la teoría de la probabilidad se desarrolló en primer lugar
para encontrar estrategias óptimas para los juegos de azar, aunque, rápidamente, su utilidad
desbordó este campo. Evidentemente, la forma más directa de saber la posibilidad de que ocurra
un suceso en un experimento aleatorio es repetir dicho experimento muchas veces. De esta
forma, supongamos que se repita n veces el experimento y llamemos n A, o frecuencia absoluta de
A, al número de veces en que ocurre el suceso A. Se puede definir entonces la probabilidad P(A)
del suceso A como P(Un)=Limn→ ∞n An= Limn→∞secuencia absoluta del suceso A numero de
veces que se repite el experimento Es decir, P(A) es el límite cuando n tiende a infinito de la
frecuencia relativa del suceso A. Puede observarse que si el suceso ocurre siempre n A = n yP(A) =
1, y, al contrario, si el suceso no ocurre nunca, su probabilidad P(A) =0. De esta forma, la
probabilidad de un suceso estar a comprendida entre 0y 1 (0 ≤ P(A) ≤ 1), y el suceso será tanto
más probable cuanto más se acerque a 1 su probabilidad. Ejemplo: El lanzamiento de la moneda al
aire es clásico. La probabilidad de obtener cara o cruz es P(A) = 1/2. En 1900 el estadístico Pearson
realizó el experimento con un número total de lanzamientos de 24000 (tardó unas 40horas).
Obtuvo un resultado de 12012 caras (y 11988 cruces). Esto significa P(A) = 12012/24000 = 0.5005
que es un valor muy próximo a la probabilidad teórica.

3.2 Axiomas y teoremas.

Un axioma es el elemento básico de un sistema de lógica formal y junto con las reglas de
inferencia definen un sistema deductivo.

La palabra viene del griego αξιοειν (axioein) que significa "valorar", que a su vez procede de αξιος
(axios) que significa "valuable" o "digno". Entre los antiguos filósofos griegos, un axioma era
aquello que parecía ser verdadero sin ninguna necesidad de prueba.

La lógica del axioma es partir de una premisa calificada verdadera por sí misma (el axioma) e
inferir sobre esta otras proposiciones por medio del método deductivo, obteniendo conclusiones
coherentes con el axioma. Los axiomas han de cumplir sólo un requisito: de ellos, y sólo de ellos,
han de deducirse todas las demás proposiciones de la teoría dada. Los axiomas de probabilidad
son las condiciones mínimas que deben verificarse para que una función que definimos sobre unos
sucesos determine consistentemente valores de probabilidad sobre dichos sucesos.

Los axiomas de la formulación moderna de la teoría de la probabilidad constituyen una base para
deducir a partir de ellas un amplio número de resultados.

La letra P se utiliza para designar la probabilidad de un evento, siendo P(A) la probabilidad de


ocurrencia de un evento A en un experimento.

Suponiendo que P(A) y P(B) representan las probabilidades para los dos eventos A y B, entonces
P(A U B) significa la probabilidad de que ocurran A o B. Si representamos los eventos A y B en un
Diagrama de Venn con:

3.3 Probabilidad clásica: Espacio finito equiparable.

FenÛmenos deterministas y aleatorios

Un fenÛmeno es determinista si al repetir exactamenre las condiciones en que

sucediÛ el fenÛmeno, entonces el resulatdo es el mismo y no otro. A diferencia

de los fenÛmenos aleatorios en los que los resultados nos son predecibles. La

teorÌa de las probabilidades pretende representar esta impredictibilidad en forma

numÈrica.

Ejemplos de fenÛmenos aleatorios son: el resultado en la loteria; se lanza

una moneda 10 veces y se cuenta el n˙mero de ·guilas que resultan; se fabrican

artÌculos en lÌnea y se cuenta el n˙mero de artÌculos defectuosos; el tiempo que

dura un foco de luz; se hace una encuesta para medir el n˙mero de personas

que trabajan en el sector informal.


La probabilidad interviene en muchos aspectos de la vida diaria a travÈs de

los fenÛmenos aleatorios, como el clima, la bolsa de valores, los diagnÛsticos de

los mÈdicos, el riesgo de ser asaltado o de obtener un premio en la loteria, los

temblores, la esperanza de vida.

Lo que nos preguntamos es: øCÛmo decir cosas no triviales de este tipo de

fenÛmenos en los que no sabemos de antemano el resultado que obtendremos en

cada ensayo?

La respuesta es que, bajo ciertas condiciones, se ha observado empÌricamente

una "tendencia central". Esta tendencia central en la teoria de las probabilidades son los teoremas
lÌmite.

1.2 Espacios muestrales y evento

Dado un fenÛmeno aleatorio denotaremos por

al conjunto que incluye a todos

los posibles resultados elementales o irreducibles del fenÛmeno, en el sentido de

que cada resultado elemental no puede descomponerse en dos o m·s resultados

ajenos, a

se le llama el espacio muestral. En el caso de que la cardinalidad

del espacio muestral sea numerable, es decir, que el n˙mero de elementos del

espacio muestral sea menor o igual que el de los n˙meros naturales (como en el

caso de las poblaciones). Por otro lado, llamaremos evento a cualquier subconjunto del espacio
muestral y denotaremos a los eventos por las primeras letras

del alfabeto en may˙sculas: A; B; C; etc. Con la ayuda de algunos ejemplos

ilustraremos a continuaciÛn los conceptos de espacio muestral y evento.

Ejemplos :

1) Si un experimento aleatorio consiste en lanzar un dado y observar el


n˙mero que aparece en la cara superior, entonces claramente el espacio muestral

es el conjunto

= f1; 2; 3; 4; 5; 6g. Como ejemplo de un evento para este experimento podemos deÖnir el
conjunto A = f2; 4; 6g, que corresponde al suceso de

obtener como resultado un n˙mero par. Si al lanzar el dado una vez se obtiene

el n˙mero ì4î, decimos entonces que se observÛ la ocurrencia del evento A, y si

se obtiene por ejemplo el resultado ì1î, decimos que no se observÛ la ocurrencia

del evento A.

2) Si extraemos al azar una carta de un paquete convencional de cartas, entonces el espacio


muestral es elconjunto

= AB donde A = fA; 2; 3; 4; 5; 6; 7; 8; 9; 10; J; Q; Kg

y B = f|; }; ~; g. Sea C el evento de obtener una carta color rojo, entonces

C = fA; 2; 3; 4; 5; 6; 7; 8; 9; 10; J; Q; Kg f}; ~g.

Dado un espacio muestral

y dos eventos A y B, decimos que A y B son

eventos ajenos si A \ B = ;, es decir si la intersección es vacía. Se acostumbra

decir tambiÈn que los eventos A y B son mutuamente excluyentes. Si sucede uno,

seguro no sucede el otro. Si deÖnimos los eventos A el resultado del lanzamiento

3.4 Probabilidad condicional e independencia

En probabilidad, decimos que dos sucesos son independientes si el saber que un acontecimiento
ocurrió no cambia la probabilidad del otro evento.

Por ejemplo, la probabilidad de que una moneda justa caiga en "águila" es

1/21, slash, 2. ¿Y si supiéramos que ese día era martes? ¿Eso cambiaría la probabilidad de obtener
"águila"? Claro que no. La probabilidad de obtener "águila", dado que es martes, sigue siendo
1

1/21, slash, 2. Así que el resultado de lanzar una moneda y que el día sea martes son eventos
independientes; saber que era martes no cambia la probabilidad de obtener "águila".

No toda situación es así de obvia. ¿Qué pasará con el género y el uso de las manos (zurdo vs
derecho)? Puede parecer que el género de una persona y si es o no zurda son eventos totalmente
independientes. Sin embargo, cuando nos fijamos en las probabilidades, vemos que el

10

10%10, percent de todas las personas son zurdas, pero cerca del

12

12%12, percent de los hombres son zurdos. Así que estos eventos no son independientes, pues
saber que una persona aleatoria es varón aumenta la probabilidad de que sea zurdo.

La idea principal es que comprobamos la independencia con probabilidades.

Dos eventos, A y B, son independientes si

P(A ∣ B)=P(A)P, left parenthesis, start text, A, space, end text, vertical bar, start text, space, B, end
text, right parenthesis, equals, P, left parenthesis, start text, A, end text, right parenthesis y

P(B ∣ A)=P(B)P, left parenthesis, start text, B, space, end text, vertical bar, start text, space, A, end
text, right parenthesis, equals, P, left parenthesis, start text, B, end text, right parenthesis..

3.5 Teorema de Bayes.


El teorema de Bayes parte de una situación en la que es posible conocer las probabilidades de que
ocurran una serie de sucesos Ai.

A esta se añade un suceso B cuya ocurrencia proporciona cierta información, porque las
probabilidades de ocurrencia de B son distintas según el suceso Ai que haya ocurrido.

Conociendo que ha ocurrido el suceso B, la fórmula del teorema de Bayes nos indica como
modifica esta información las probabilidades de los sucesos Ai.

Ejemplo: Si seleccionamos una persona al azar, la probabilidad de que sea diabética es 0,03.
Obviamente la probabilidad de que no lo sea es 0,97.

Si no disponemos de información adicional nada más podemos decir, pero supongamos que al
realizar un análisis de sangre los niveles de glucosa son superiores a 1.000 mg/l, lo que ocurre en
el 95% de los diabéticos y sólo en un 2% de las personas sanas.

¿Cuál será ahora la probabilidad de que esa persona sea diabética?

La respuesta que nos dá el teorema de bayes es que esa información adicional hace que la
probabilidad sea ahora 0,595.

Vemos así que la información proporcionada por el análisis de sangre hace pasar, la probabilidad
inicial de padecer diabetes de 0,03, a 0,595.

Evidentemente si la prueba del análisis de sangre hubiese sido negativa, esta información
modificaría las probabilidades en sentido contrario. En este caso la probabilidad de padecer
diabetes se reduciría a 0,0016.

3.6 Distribución Marginal Conjunta

Una variable es un símbolo que actúa en las funciones, las fórmulas, los algoritmos y las
proposiciones de las matemáticas y la estadística.

Una variable aleatoria es la función que implica eventos posibles a números reales (cifras), cuyos
valores se miden en experimentos de tipo aleatorio. Estos valores posibles representan los
resultados de experimentos que todavía no se llevaron a cabo o cantidades inciertas.
Los experimentos aleatorios son aquellos que, desarrollados bajo las mismas condiciones, pueden
ofrecer resultados diferentes. Por ejemplo, Arrojar una moneda al aire para ver si sale cara o ceca,
lanza un dado, el número de llamadas que tendremos en un día, o una semana, etc.

La variable aleatoria, permite ofrecer una descripción de la probabilidad de que se adoptan ciertos
valores. No se sabe de manera precisa qué valor adoptará la variable cuando sea determinada o
medida, pero sí se puede conocer cómo se distribuyen las probabilidades vinculadas a los valores
posibles. En dicha distribución incide el azar.

DISTRIBUCION MARGINAL

La distribución marginal es la distribución de probabilidad

de un subconjunto de variables aleatorias de un conjunto


de variables aleatorias. La distribución marginal proporciona

la probabilidad de un subconjunto de valores del conjunto

sin necesidad de conocer los valores de las otras variables.

La variable aleatoria, permite ofrecer una descripción de la probabilidad de que se


adoptan ciertos valores. No se sabe de manera precisa qué valor adoptará la variable
cuando sea determinada o medida, pero sí se puede conocer cómo se distribuyen las
probabilidades vinculadas a los valores posibles. En dicha distribución incide el azar.

DISTRIBUCION MARGINAL
La distribución marginal es la distribución de probabilidad

de un subconjunto de variables aleatorias de un conjunto

de variables aleatorias. La distribución marginal proporciona

la probabilidad de un subconjunto de valores del conjunto

sin necesidad de conocer los valores de las otras variables.


La probabilidad Marginal te permite obtener probabilidades totales.

Por ejemplo:

P (H): 610/1000= 0.61

P (M): 390/1000= 0.39

P (Messenger) = 423/1000= 0.423

P (Whatsup) = 577/1000= 0.577

De cada distribución bidimensional se pueden deducir dos distribuciones marginales: una


correspondiente a la variable x, y otra correspondiente a la variable y, como en el ejemplo
anterior: una distribución para Hombres y otra para Mujeres(sus totales)

Es cuando nos interesa conocer la distribución de un componente por separado, sin tener en
cuenta a el otro componente.

Eso se denomina "marginar", y la distribución de la variable por separado se llama "distribución


marginal".
La función de distribución marginal de X

Usos

La función de probabilidad marginal es usada para hallar las diferentes distribuciones de


probabilidad estadística de las variables individuales, con esta función podemos asignar diferentes
valores a las variables conjuntas sin tener que relacionarlas, por ello se amplía las probabilidades
de cada una de las variables.

Características

La distribución marginal de X es simplemente la función de probabilidad de x, pero la palabra


marginal sirve para distinguirla de la distribución conjunta de X e Y.

Una distribución marginal nos da la idea de la forma como depende una probabilidad con respecto
a una sola variable.

Ventajas

La distribución marginal de dos variables aleatorias se puede obtener a partir de su distribución


conjunta.

Para una variable aleatoria se puede especificar probabilidades para dicha variable sin tener en
cuenta los valores de cuales quiera otras variables aleatorias.

Distribucion Conjunta
En probabilidad, dados dos eventos aleatorios X y Y, la distribución conjunta de X y Y es la
distribución de probabilidad de la intersección de eventos de X y Y, esto es, de los eventos X e Y
ocurriendo de forma simultánea

Su función es:
VARIABLES ALEATORIAS

En probabilidad y estadística, una variable aleatoria es una función que asigna un valor,
usualmente numérico, al resultado de un experimento aleatorio. Por ejemplo, los posibles
resultados de tirar un dado dos veces, etc. o un número real.

4.1 Variables aleatorias discretas:

Una variable aleatoria es discreta cuando su campo de variación (dominio de definición) está
constituido por un conjunto finito o infinito numerable de valores posibles. Cada suceso de W se
corresponde con un valor .

Ej 1 : ante el experimento : lanzar un dado diez veces se aleatoriza de forma que la variable
aleatoria X = nº de ases que se obtengan : X ={0,1,2,3,4,5,6,7,8,9,10} (v.a. discreta de orden finito)
Ej 2 : ante el experimento : contemplar los coches que pasen por un tramo de carretera se
aleatoriza de forma que la variable aleatoria X = nº de coches que pasen: X={0,1,2,3,...} ( X= N ) (v.
a. discreta de orden infinito)

Si la variable aleatoria es discreta, cada valor de los pertenecientes al campo de variación se


corresponderá con un suceso del álgebra de sucesos.(lo que permitirá después asignar
probabilidades a cada valor ).

Una variable aleatoria discreta es el modelo teórico de una variable estadística discreta (con
valores sin agrupar).

Una variable aleatoria discreta es aquella cuya función de distribución es escalonada

4.1.1 Distribución de probabilidad en forma general.

Distribuciones discretas

Las distribuciones discretas incluidas en el módulo de “Cálculo de probabilidades” son:

- Uniforme discreta
- Binomial

- Hipergeométrica

- Geométrica

- Binomial negativa

- Pascal

- Poisson

En el Anexo 3 se incluye una tabla que resume las características de estas distribuciones.

13.1.1.1. Distribución uniforme discreta (a,b)

La distribución uniforme discreta describe el comportamiento de una variable discreta que

puede tomar n valores distintos con la misma probabilidad cada uno de ellos. Un caso

particular de esta distribución, que es la que se incluye en este módulo de Epidat 4, ocurre

cuando los valores son enteros consecutivos. Esta distribución asigna igual probabilidad a

todos los valores enteros entre el límite inferior y el límite superior que definen el recorrido

de la variable. Si la variable puede tomar valores entre a y b, debe ocurrir que b sea mayor

que a, y la variable toma los valores enteros empezando por a, a+1, a+2, etc. hasta el valor

máximo b. Por ejemplo, cuando se observa el número obtenido tras el lanzamiento de un

dado perfecto, los valores posibles siguen una distribución uniforme discreta en {1, 2, 3, 4, 5,

6}, y la probabilidad de cada cara es 1/6.

Valores:

k: a, a+1, a+2, ..., b, números enteros

Parámetros:

a: mínimo, a entero

b: máximo, b entero con a < b

Ejemplo

El temario de un examen para un proceso selectivo contiene 50 temas, de los cuales se elegirá

uno por sorteo. Si una persona no ha estudiado los 15 últimos temas ¿cuál es la probabilidad
de que salga un tema que haya estudiado?

La variable que representa el número del tema seleccionado para el examen sigue una

distribución uniforme con parámetros a = 1 y b = 50. La persona ha estudiado los temas del 1

al 35; por tanto, la probabilidad que se pide es la cola a la izquierda de 35. Para obtener los

resultados en Epidat 4 basta con proporcionarle los parámetros de la distribución, y

seleccionar la opción de calcular probabilidades para el punto 35.

Epidat 4: Ayuda de Distribuciones de probabilidad. Octubre 2014.

http://dxsp.sergas.es

[email protected]

Resultados con Epidat 4:

La persona tiene una probabilidad del 70% de que el tema elegido sea uno de los que haya

estudiado.

13.1.1.2. Distribución binomial (n,p)

La distribución binomial es una distribución discreta muy importante que surge en muchas

aplicaciones bioestadísticas. Fue obtenida por Jakob Bernoulli (1654-1705) y publicada en su

obra póstuma Ars Conjectandi en 1713.

Esta distribución aparece de forma natural al realizar repeticiones independientes de un

experimento que tenga respuesta binaria, generalmente clasificada como “éxito” o “fracaso”;

este experimento recibe el nombre de experimento de Bernoulli. Ejemplos de respuesta

binaria pueden ser el hábito de fumar (sí/no), si un paciente hospitalizado desarrolla o no

una infección, o si un artículo de un lote es o no defectuoso. La variable discreta que cuenta

el número de éxitos en n pruebas independientes de ese experimento, cada una de ellas con

la misma probabilidad de “éxito” igual a p, sigue una distribución binomial de parámetros n

y p, que se denota por (Bi(n,p)). Este modelo se aplica a poblaciones finitas de las que se

toman elementos al azar con reemplazo, y también a poblaciones conceptualmente infinitas,


como por ejemplo las piezas que produce una máquina, siempre que el proceso de

producción sea estable (la proporción de piezas defectuosas se mantiene constante a largo

plazo) y sin memoria (el resultado de cada pieza no depende de las anteriores).

Un ejemplo de variable binomial puede ser el número de pacientes con cáncer de pulmón

ingresados en una unidad hospitalaria.

Un caso particular se tiene cuando n=1, que da lugar a la distribución de Bernoulli.

En Epidat 4 el número de pruebas de la distribución binomial está limitado a 1.000; para

valores superiores no es posible realizar el cálculo. Esta restricción no debe ser considerada

un inconveniente dado que, cuando se tiene un número de pruebas “grande”, la distribución

binomial se aproxima a una distribución normal de media np y varianza np(1-p) [8]

4.1.2 Valor esperado.

Los promedios son parte de nuestro diario vivir. Nosotros escuchamos el promedio de lluvia en
una ciudad en un año, el promedio de temperatura en Agosto, el promedio de edad de los
trabajadores de una empresa, entre otros. El objetivo de esta seccióon es mostrar algunas
características numéricas de una distribución poblacional. El más comun promedio utilizado en
estadística es la media o valor esperado o esperanza matemática.

4.1.3 Variancia, desviación estándar.

La varianza y la desviación estándar son medidas de dispersión o variabilidad, es decir, indican la


dispersión o separación de un conjunto de datos. Hay que tener en cuenta que las fórmulas de la
varianza y la desviación estándar son diferentes para una muestra que para una población.

A continuación, presentamos el resumen de fórmulas, las cuales analizaremos líneas abajo


La desviación estándar es la raíz cuadrada positiva de la varianza.

desviación estándar de la población

Te recomendamos calcular primero la varianza de la población y luego sacar su raíz cuadrada para
obtener la desviación estándar.

Ten en cuenta que, si tienes una serie de valores de una población y necesitas calcular su varianza
y su desviación estándar, deberás calcular primero la media poblacional µ con la siguiente
fórmula:

fórmula de la media poblacional

4.1.4 Función acumulada.

a función distribución acumulada $F(x)$ de la variable aleatoria discreta $X$, cuya distribución de
probabilidad es $p(x)$, es la probabilidad de que la variable $X$ sea menor o igual al valor $x.$
Esto es,

MATH
Ejemplo

Para el ejemplo tratado anteriormente, La función distribución acumulada $F(x)$ de la variable


aleatoria discreta $X$ es determinada así:

1. Divida el rango de la variable en subintervalos: $x<0,$ $0/leq x<1$ y $x/geq 1$. Esta división es
realizada de acuerdo a la partición de la recta real dada en la función de probabilidad.

2. Calcule la función de probabilidad acumulada para un un valor $x$ que se encuentre en el


intervalo como la suma de las probabilidades de los valores de la variable menores a $x$.

4.2 Variables aleatorias Continuas:

Todas las precisiones realizadas en el capítulo de variables estadísticas son igual de adecuadas en
este caso. Cuando observamos valores de una variable aleatoria continua, existe una limitación en
cuanto al número de valores que puede tomar la misma. Esto es, en la práctica, la variable no
toma infinitos valores. A la hora de medir el peso o la estatura, por ejemplo, se trabaja con un
número preciso de decimales (que puede ser grande pero nunca será infinito). Lo que se está
haciendo es lo que se llama una discretización a la hora de tomar datos. Sin embargo, desde un
punto de vista matemático, consideraremos siempre que una variable continua puede tomar
infinitos valores. Esto nos permitirá trabajar con propiedades matemáticas que nos aportarán
mucha información de la variable considerada.

3.2.1Distribución de probabilidad en forma general.

En teoría de la probabilidad y estadística, la distribución de probabilidad de una variable aleatoria


es una función que asigna a cada suceso definido sobre la variable, la probabilidad de que dicho
suceso ocurra. La distribución de probabilidad está definida sobre el conjunto de todos los sucesos
y cada uno de los sucesos es el rango de valores de la variable aleatoria. También puede decirse
que tiene una relación estrecha con las distribuciones de frecuencia. De hecho, una distribución de
probabilidades puede comprenderse como una frecuencia teórica, ya que describe cómo se
espera que varíen los resultados.

La distribución de probabilidad está completamente especificada por la función de distribución,


cuyo valor en cada x real es la probabilidad de que la variable aleatoria sea menor o igual que x.
4.2.2 Valor esperado.

El valor esperado suele denominarse media o promedio "a largo plazo". Esto significa que a largo
plazo de hacer un experimento una y otra vez, se esperaría este promedio.

Se lanza una moneda y se anota el resultado. ¿Cuál es la probabilidad de que el resultado sea
cara? Si lanza una moneda dos veces, ¿la probabilidad le dice que estos lanzamientos darán como
resultado una cara y una cruz? Puede lanzar una moneda diez veces y registrar nueve caras. Como
aprendió en el 3 - TEMAS DE PROBABILIDAD, la probabilidad no describe los resultados a corto
plazo de un experimento. Ofrece información sobre lo que cabe esperar a largo plazo. ¡Para
demostrarlo, Karl Pearson lanzó una vez una moneda justa 24.000 veces! Registró los resultados
de cada lanzamiento, obteniendo cara 12.012 veces. En su experimento, Pearson ilustró la ley de
los grandes números.

La ley de los grandes números establece que, a medida que aumenta el número de ensayos en un
experimento de probabilidad, la diferencia entre la probabilidad teórica de un evento y la
frecuencia relativa se aproxima a cero (la probabilidad teórica y la frecuencia relativa se acercan
cada vez más). Al evaluar los resultados a largo plazo de los experimentos estadísticos, a menudo
queremos conocer el resultado del “promedio". Este “promedio a largo plazo” se conoce como la
media o valor esperado del experimento y se denota con la letra griega μ. En otras palabras,
después de realizar muchos ensayos de un experimento, se esperaría este valor promedio.

4.2.3 Variancia, desviación estándar.

3.1 Varianza

La varianza es una medida de variabilidad que utiliza todos los datos. La varianza está basada en la
diferencia entre el valor de cada observación (xixi) y la media x¯x¯ .(Anderson, Sweeney, and
Williams 2008a).

3.1.1 Fórmulas

Se identifican las fórmulas para varianza poblacional y muestral, dependiendo de los datos a
analizar, si es todas las observaciones de la población y solo una muestra de la misma.

Para efectos de este ejercicio se utiliza mas específicamente la varianza y desviación muestral.
3.1.1.1 Fórmula de varianza poblacional

σ2=∑Ni=1(xi−μ)2N

siendo μμ la media poblacional y NN el total de los datos de la población.

3.1.1.2 Fórmula de varianza muestral

$$ S^2 =

$$

siendo x¯x¯ la media muestral y nn el total de los datos de la muestra.

Las unidades al cuadrado de la varianza dificultan la comprensión e interpretación intuitiva de los


valores numéricos de la varianza.

3.2 Desviación estándar

La desviación estándar se define como la raíz cuadrada positiva de la varianza.

Continuando con la notación adoptada para la varianza muestral y para la varianza poblacional, se
emplea ςς para denotar la desviación estándar muestral y σσ para denotar la desviación estándar
poblacional.

¿Qué se gana con convertir la varianza en la correspondiente desviación estándar?.

Como la desviación estándar es la raíz cuadrada de la varianza, las unidades de la varianza, son al
cuadrado, posiblemente dificulta su interpretación, por tanto, la desviación estándar de se
interpreta de mejor manera la variabilidad de los datos porque el valor resultante se mide en las
mismas unidades que los datos originales. (Anderson, Sweeney, and Williams 2008a).

Una interpretación preliminar de la desviación estándar muestral es que es el tamaño de una


desviación típica o representativa de la media muestral dentro de la muestra dada.(Devore 2016b)

4.2.4 Función acumulada.

La función de distribución acumulativa es la función que para un valor x, nos da la probabilidad de


que la variable aleatoria sea menor o igual que dicho valor x. A la función de distribución
acumulativa la denominamos F(x).

A continuación, viene la definición formal:

Sea X una variable aleatoria continua con función de densidad de probabilidad f(x). La función de
distribución acumulativa de X es la función:

De forma gráfica, F(x) es el área bajo la curva de densidad a la izquierda de x. Recordemos que
cuando trabajamos con la función de densidad, área es probabilidad.

Además, tenemos algunas fórmulas interesantes que nos servirán para resolver los problemas.

La siguiente fórmula nos permite pasar de la función de distribución acumulativa a la función de


densidad de probabilidad:

Recuerda también que, al ser una función acumulativa, esta no puede ser decreciente.
3) Ejemplo

La variable aleatoria continua X tiene la siguiente función de densidad:

Definir y graficar la función de distribución acumulativa de X.

Solución:

Iniciamos graficando la función de densidad para no meternos en problemas

4.2.5 Cálculos de probabilidad

El cálculo de probabilidades es el estudio de cómo se determina la posibilidad de ocurrencia de un


suceso. Esto, cuando tiene injerencia el azar.

Es decir, mediante el cálculo de las probabilidades, se usan herramientas matemáticas para hallar
qué tan factible es que suceda un evento. Esto, en el marco de ciertas condiciones.

El cálculo de probabilidades forma parte de la teoría de la probabilidad. Esta es aquella área de las
matemáticas y la estadística que engloba todos los conocimientos relativos a la probabilidad.
Dicho análisis es aplicado, por ejemplo, en los juegos de azar; como el póker.

En este sentido, debemos recordar que la probabilidad es la posibilidad de ocurrencia de un


fenómeno o un hecho. Esto, cuando están dadas determinadas circunstancias.
DISTRIBUCIONES DE PROBABILIDAD DISCRETA

5.1 Distribución Binomial.

Una distribución binomial es una distribución de probabilidad discreta que describe el número de
éxitos al realizar n experimentos independientes entre sí, acerca de una variable aleatoria.

Existen una gran diversidad de experimentos o sucesos que pueden ser caracterizados bajo esta
distribución de probabilidad. Imaginemos el lanzamiento de una moneda en el que definimos el
suceso “sacar cara” como el éxito. Si lanzamos 5 veces la moneda y contamos los éxitos (sacar
cara) que obtenemos, nuestra distribución de probabilidades se ajustaría a una distribución
binomial.

Por lo tanto, la distribución binomial se entiende como una serie de pruebas o ensayos en la que
solo podemos tener 2 resultados (éxito o fracaso), siendo el éxito nuestra variable aleatoria.

Propiedades de la distribución binomial

Para que una variable aleatoria se considere que sigue una distribución binomial, tiene que
cumplir las siguientes propiedades:
Sólo el 2% de la población sabe lo que quiere y cómo lo va a conseguir ¿y tú?

Tu dinero = tu tiempo + tu talento. A lo último, te ayudamos nosotros.

Mejora tu conocimiento en finanzas aprendiendo de los mejores profesionales, con cursos


efectivos y entretenidos.

Ver cursos

En cada ensayo, experimento o prueba solo son posibles dos resultados (éxito o fracaso).

La probabilidad del éxito ha de ser constante. Esta se representa mediante la letra p. La


probabilidad de que salga cara al lanzar una moneda es 0,5 y esta es constante dado que la
moneda no cambia en cada experimento y las probabilidades de sacar cara son constantes.

La probabilidad de fracaso ha de ser también constate. Esta se representa mediante la letra q = 1-


p. Es importante fijarse que mediante esa ecuación, sabiendo p o sabiendo q, podemos obtener la
que nos falte.

El resultado obtenido en cada experimento es independiente del anterior. Por lo tanto, lo que
ocurra en cada experimento no afecta a los siguientes.

Los sucesos son mutuamente excluyentes, es decir, no pueden ocurrir los 2 al mismo tiempo. No
se puede ser hombre y mujer al mismo tiempo o que al lanzar una moneda salga cara y cruz al
mismo tiempo.

Los sucesos son colectivamente exhaustivos, es decir, al menos uno de los 2 ha de ocurrir. Si no se
es hombre, se es mujer y, si se lanza una moneda, si no sale cara ha de salir cruz.

La variable aleatoria que sigue una distribución binomial se suele representar como X~(n,p), donde
n representa el número de ensayos o experimentos y p la probabilidad de éxito.

Formula de la distribución binomial

La fórmula para calcular la distribución normal es:

5.2 Distribución Hipergeométrica.


distribución hipergeométrica es una distribución discreta que modela el número de eventos en
una muestra de tamaño fijo cuando usted conoce el número total de elementos en la población de
la cual proviene la muestra. Cada elemento de la muestra tiene dos resultados posibles (es un
evento o un no evento). Las muestras no tienen reemplazo, por lo que cada elemento de la
muestra es diferente. Cuando se elige un elemento de la población, no se puede volver a elegir.
Por lo tanto, la probabilidad de que un elemento sea seleccionado aumenta con cada ensayo,
presuponiendo que aún no haya sido seleccionado.

Utilice la distribución hipergeométrica para muestras obtenidas de poblaciones relativamente


pequeñas, sin reemplazo. Por ejemplo, la distribución hipergeométrica se utiliza en la prueba
exacta de Fisher para probar la diferencia entre dos proporciones y en muestreos de aceptación
por atributos cuando se toman muestras de un lote aislado de tamaño finito.

La distribución hipergeométrica se define por 3 parámetros: tamaño de la población, conteo de


eventos en la población y tamaño de la muestra.

Por ejemplo, usted recibe un envío de pedido especial de 500 etiquetas. Supongamos que el 2% de
las etiquetas es defectuoso. El conteo de eventos en la población es de 10 (0.02 * 500). Usted
toma una muestra de 40 etiquetas y desea determinar la probabilidad de que haya 3 o más
etiquetas defectuosas en esa muestra. La probabilidad de que haya 3 o más etiquetas defectuosas
en la muestra es de 0.0384.

5.2.1 Aproximación de la Hipergeométrica por la Binomial.

Distribución binomial

Formula de la distribución binomial

Aproximación de la hipergeométrica por la binomial

Es uno de los modelos matemáticos que se utiliza cuando la variable aleatoria discreta es el
número de éxitos en una muestra compuesta por n observaciones.

Cada observación se clasifica en una de dos categorías, mutuamente excluyentes y colectivamente


exhaustivos. A estas categorías se le denomina éxito y fracaso.
Es un método que se utiliza cuando el espacio muestral, que manejamos en el problema, es mucho
mayor que la muestra.

Varianza:

Media:

Características

Un experimento sigue el modelo de la distribución binomial si:

1. En cada prueba del experimento sólo son posibles dos resultados: el suceso A (éxito) y su
contrario suceso .

2. La probabilidad del suceso A es constante, es decir, que no varía de una prueba a otra. Se
representa por p.

3. El resultado obtenido en cada prueba es independiente de los resultados obtenidos


anteriormente.

Formula de distribución hipergeométrica

Ejemplo

Un cargamento de 100 grabadoras contiene 25 defectuosas. Si 10 de ellas son aleatoriamente


escogidas para revisión, ¿cual es la probabilidad de que 2 estén defectuosas? utilizando

a) la formula para distribución hipergeométrica

b) la formula para la distribución como una aproximación


Media:

Varianza:

5.3 Distribución Geométrica.

La distribución geométrica es un modelo adecuado para aquellos procesos en los que se repiten
pruebas hasta la consecución del éxito a resultado deseado y tiene interesantes aplicaciones en los
muestreos realizados de esta manera . También implica la existencia de una dicotomía de posibles
resultados y la independencia de las pruebas entre sí.

Proceso experimental del que se puede hacer derivar

Esta distribución se puede hacer derivar de un proceso experimental puro o de Bernouilli en el que
tengamos las siguientes características

· El proceso consta de un número no definido de pruebas o experimentos separados o separables.


El proceso concluirá cuando se obtenga por primera vez el resultado deseado (éxito).

· Cada prueba puede dar dos resultados mutuamente excluyentes : A y no A

· La probabilidad de obtener un resultado A en cada prueba es p y la de obtener un resultado no A


es q

siendo (p + q = 1).

Las probabilidades p y q son constantes en todas las pruebas ,por tanto , las pruebas ,son
independientes (si se trata de un proceso de "extracción" éste se llevará a , cabo con devolución
del individuo extraído) .
· (Derivación de la distribución). Si en estas circunstancias aleatorizamos de forma que tomemos
como variable aleatoria X = el número de pruebas necesarias para obtener por primera vez un
éxito o resultado A , esta variable se distribuirá con una distribución geométrica de parámetro p.

Obtención de la función de cuantía

De lo dicho anteriormente , tendremos que la variable X es el número de pruebas necesarias


para la consecución del primer éxito. De esta forma la variables aleatoria toma valores enteros a
partir del uno ; í 1,2,………ý

La función de cuantía P(x) hará corresponder a cada valor de X la probabilidad de obtener el


primer éxito precisamente en la X-sima prueba. Esto es , P(X) será la probabilidad del suceso
obtener X-1 resultados "no A" y un éxito o resultado A en la prueba número X teniendo en cuenta
que todas las pruebas son independientes y que conocemos sus probabilidades tendremos:

5.4 Distribución Multinomial.

a distribución multinomial es una generalización de la distribución binomial. En este caso, en un


experimento interesa estudiar no la ocurrencia de un único suceso o la de su contrario, sino la de
varios sucesos (tres o más).

La distribución multinomial, M(n,p1,...,pn) proporciona probabilidades de obtener, en m


repeticiones independientes de un experimento, x1 veces el suceso A1, x2 veces el suceso A2,...,
xn veces el suceso An, donde dichos sucesos forman una partición del espacio muestral, es decir,
tal que para y donde , por tanto, se cumple .

Así, considerando que Xi es el número de veces que se presenta el suceso Ai en las m repeticiones
tenemos que la variable n-dimensional (X1, X2, ..., Xn) sigue una distribución multinomial de
parámetros n, p1, ..., pn y su función de probabilidad es
para con .

Hay que tener en cuenta que si (X1, X2, ..., Xn) es una variable multidimensional entonces existe
una relación lineal entre sus componentes ya que X1+ X2+ ...+ Xn = m, por lo que, una de las
variables, por ejemplo Xn, se puede poner como combinación lineal del resto, Xn=m-X1- X2- ...- Xn-
1. Por tanto, el fenómeno que describe la variable (X1, X2, ..., Xn) queda igualmente descrito por
una variable de una dimensión menor, (X1, X2, ..., Xn-1), sin que esta pérdida de dimensión
suponga una pérdida de información.

Por ejemplo, una variable multinomial de dimensión dos (X1, X2), M(n,p1,p2), se puede describir
considerando una cualquiera de sus componentes que tiene una distribución binomial, por lo que
en realidad esta variable es unidimensional y no bidimensional.

Además, cada una de las n variables, Xi, que forman una multinomial M(n,p1,...,pn) siguen
distribuciones binomiales B(m,pi), es decir, las distribuciones marginales de una multinomial son
binomiales, por tanto, la esperanza y la varianza de cada una de estas variables es, E[Xi]=m·pi y
Var(Xi)=mpi(1-pi). Además la covarianza entre dos cualesquiera de sus componentes es, .

5.5 Distribución de Poisson.

La distribución de Poisson es una distribución de probabilidad discreta que modeliza la frecuencia


de eventos determinados durante un intervalo de tiempo fijado a partir de la frecuencia media de
aparición de dichos eventos.

En otras palabras, la distribución de Poisson es una distribución de probabilidad discreta que, tan
solo conociendo los eventos y su frecuencia media de ocurrencia, podemos saber su probabilidad.

Expresión de la distribución de Poisson

Dada una variable aleatoria discreta X decimos que su frecuencia se puede aproximar
satisfactoriamente a una distribución de Poisson, tal que:

5.6 Aproximación de la Binomial por la de Poisson.


En matemáticas, especialmente en Teoría de probabilidades,la aproximación de Poisson de la
distribución binomial se puede emplear, cuando hay un resultado diferente sobre la probabilidad
de que ocurra una cantidad determinada de éxitos en una serie de experimentos independientes.

Esta aproximación es, particularmente, ventajoso en el caso de que la probabilidad de éxito es


pequeña y la cantidad de experimentos es bastante grande.

Proposición

Para cualquier número natural n se tiene una serie de n experimentos independientes con
probabilidad de éxito igual a λ/n en cada experimento; la constante λ es positiva y arbitraria.
Asumamos que Mn es la cantidad de éxitos en la serie n-ésima. Entonce se cumple:

P( μn = m) → e-λ ×(λm ÷ m!) cuando n → ∞

5.7 Distribución Binomial Negativa.

Esta distribución puede considerarse como una extensión o ampliación de la distribución


geométrica . La distribución binomial negativa es un modelo adecuado para tratar aquellos
procesos en los que se repite un determinado ensayo o prueba hasta conseguir un número
determinado de resultados favorables (por vez primera) .Es por tanto de gran utilidad para
aquellos muestreos que procedan de esta manera. Si el número de resultados favorables buscados
fuera 1 estaríamos en el caso de la distribución geométrica . Está implicada también la existencia
de una dicotomía de resultados posibles en cada prueba y la independencia de cada prueba o
ensayo, o la reposición de los individuos muestreados.

Proceso experimental del que puede hacerse derivar

Esta distribución o modelo puede hacerse derivar de un proceso experimental puro o de Bernouilli
en el que se presenten las siguientes condiciones

· El proceso consta de un número no definido de pruebas separadas o separables . El proceso


concluirá cuando se obtenga un determinado número de resultados favorables K
· Cada prueba puede dar dos resultados posibles mutuamente excluyentes A y no A

· La probabilidad de obtener un resultado A en cada una de las pruebas es p siendo la probabilidad


de no A , q . Lo que nos lleva a que p+q=1

· Las probabilidades p y q son constantes en todas las pruebas. Todas las pruebas son
independientes. Si se trata de un experimento de extracción éste se llevará cabo con devolución
del individuo extraído, a no ser que se trate de una población en la que el número de individuos
tenga de carácter infinito.

· (Derivación de la distribución) Si, en estas circunstancias aleatorizamos de forma que la variable


aleatoria x sea "el número de pruebas necesarias para conseguir K éxitos o resultados A " ;
entonces la variable aleatoria x seguirá una distribución binomial negativa con parámetros p y k

será entonces

La variable aleatoria x podrá tomar sólo valores superiores a k

El suceso del que se trata podría verse como

5.8 Distribución Uniforme (Discreta)

En teoría de probabilidad y estadística, la distribución uniforme discreta es una distribución de


probabilidad discreta simétrica que surge en espacios de probabilidad equiprobables, es decir, en
situaciones donde de

n resultados diferentes, todos tienen la misma probabilidad de ocurrir.


Un ejemplo simple de la distribución uniforme discreta es tirar los dados. Los valores posibles son
1, 2, 3, 4, 5, 6 y cada vez que se lanza el dado, la probabilidad de una puntuación determinada es
de 1/6. Si se lanzan dos dados y se suman sus valores, la distribución resultante ya no es uniforme
porque no todas las sumas tienen la misma probabilidad. Aunque es conveniente describir
distribuciones uniformes discretas sobre enteros, como este, también se pueden considerar
distribuciones uniformes discretas sobre cualquier conjunto finito . Por ejemplo, una permutación
aleatoria es una permutación generada uniformemente a partir de las permutaciones de una
longitud determinada, y un árbol de expansión uniforme es un árbol de expansión. generado
uniformemente a partir de los árboles de expansión de un gráfico dado.

La distribución uniforme discreta en sí misma es intrínsecamente no paramétrica. Es conveniente,


sin embargo, para representar sus valores en general por todos los números enteros en un
intervalo [ a , b ], de modo que una y b se convierten en los principales parámetros de la
distribución (a menudo uno simplemente considera el intervalo [1, n ] con la sola parámetro n ).
Con estas convenciones, la función de distribución acumulativa (CDF) de la distribución uniforme
discreta se puede expresar, para cualquier k ∈ [ a , b ],

DISTRIBUCIONES DE PROBABILIDAD CONTINUA

6.1 Distribución Uniforme (continua).

La distribución uniforme es una distribución de probabilidad continua y se refiere a eventos que


tienen la misma probabilidad de ocurrir. Cuando se resuelven problemas que tienen una
distribución uniforme, hay que tener en cuenta si los datos son inclusivos o excluyentes de los
extremos.

El enunciado matemático de la distribución uniforme es

f(x) = 1b–a

para a ≤ x ≤ b

donde a = el menor valor de x y b = el mayor valor de x.

Las fórmulas para la media teórica y la desviación típica son


μ=a+b2

y σ=(b–a)212−−−−√

6.2 Distribución Exponencial.

a distribución exponencial es el equivalente continuo de la distribución geométrica discreta. Esta


ley de distribución describe procesos en los que:

Nos interesa saber el tiempo hasta que ocurre determinado evento, sabiendo que,

El tiempo que pueda ocurrir desde cualquier instante dado t, hasta que ello ocurra en un instante
tf, no depende del tiempo transcurrido anteriormente en el que no ha pasado nada.

Ejemplos de este tipo de distribuciones son:

El tiempo que tarda una partícula radiactiva en desintegrarse. El conocimiento de la ley que sigue
este evento se utiliza en Ciencia para, por ejemplo, la datación de fósiles o cualquier materia
orgánica mediante la técnica del carbono 14, C14;

El tiempo que puede transcurrir en un servicio de urgencias, para la llegada de un paciente;

En un proceso de Poisson donde se repite sucesivamente un experimento a intervalos de tiempo


iguales, el tiempo que transcurre entre la ocurrencia de dos sucesos consecutivos sigue un modelo
probabilístico exponencial. Por ejemplo, el tiempo que transcurre entre que sufrimos dos veces
una herida importante.
Concretando, si una v.a. continua X distribuida a lo largo de, es tal que su función de densidad es

formula

Figura 5.2.1 Función de Densidad

se dice que sigue una distribución exponencial de parámetro.

Figura 5.2.2 Función de densidad.

6.3 Distribución Gamma.

Utilice la distribución gamma para modelar valores de datos positivos que sean asimétricos a la
derecha y mayores que 0. La distribución gamma se utiliza comúnmente en estudios de
supervivencia de fiabilidad. Por ejemplo, la distribución gamma puede describir el tiempo que
transcurre para que falle un componente eléctrico. La mayoría de los componentes eléctricos de
un tipo particular fallará aproximadamente en el mismo momento, pero unos pocos tardarán más
en fallar.

La distribución gamma es una distribución continua que se define por sus parámetros de forma y
escala. La distribución gamma de 3 parámetros se define por sus parámetros de forma, escala y
valor umbral. Por ejemplo, en la siguiente gráfica, la distribución gamma se define según valores
de forma y escala diferentes cuando el valor umbral se establece en 0.0. Note que la mayoría de
los valores en una distribución gamma ocurren cercanos entre sí, pero algunos valores quedan al
final de la cola superior.

6.4 Distribución Normal.

Esta distribución es frecuentemente utilizada en las aplicaciones estadísticas. Su propio nombre


indica su extendida utilización, justificada por la frecuencia o normalidad con la que ciertos
fenómenos tienden a parecerse en su comportamiento a esta distribución.

Muchas variables aleatorias continuas presentan una función de densidad cuya gráfica tiene forma
de campana.

En otras ocasiones, al considerar distribuciones binomiales, tipo B(n,p), para un mismo valor de p
y valores de n cada vez mayores, se ve que sus polígonos de frecuencias se aproximan a una
curva en "forma de campana".

En resumen, la importancia de la distribución normal se debe principalmente a que hay muchas


variables asociadas a fenómenos naturales que siguen el modelo de la normal
Caracteres morfológicos de individuos (personas, animales, plantas,...) de una especie, p.ejm.
tallas, pesos, envergaduras, diámetros, perímetros,...

Caracteres fisiológicos, por ejemplo: efecto de una misma dosis de un fármaco, o de una misma
cantidad de abono.

Caracteres sociológicos, por ejemplo: consumo de cierto producto por un mismo grupo de
individuos, puntuaciones de examen.

Caracteres psicológicos, por ejemplo: cociente intelectual, grado de adaptación a un medio,...

Errores cometidos al medir ciertas magnitudes.

Valores estadísticos muestrales, por ejemplo : la media.

Otras distribuciones como la binomial o la de Poisson son aproximaciones normales, ...

Y en general cualquier característica que se obtenga como suma de muchos factores.

FUNCIÓN DE DENSIDAD

Empleando cálculos bastante laboriosos, puede demostrarse que el modelo de la función de


densidad que corresponde a tales distribuciones viene dado por la fórmula
6.4.1 Aproximación de la Binomial a la Normal.

a dstribución binomial B(n,p) se puede aproximar por una distribución normal, siempre que n sea
grande y p no esté muy próxima a 0 o a 1. La aproximación consiste en utilizar una distribución
normal con la misma media y desviación típica que la distribución binomial.

En la practica se utiliza la aproximación cuando :

En cuyo caso :

Y tipificando se obtiene la normal estándar correspondiente:


CONCLUSION

a Estadística responde a la actividad planificadora de la sociedad. Con la Revolución Industrial


aparecen nuevos problemas, en este caso las emisiones atmosféricas. La Estadística es un
instrumento para identificar causas e impactos que esta problemática genera en la sociedad.
· La estadística es el conjunto de diversos métodos matemáticos que tienen como objetivo
obtener, presentar y analizar datos (ya sean números o cualidades).

· La estadística nos permite realizar estudios reales, con poblaciones exactas; lo cual nos ayuda
a mejorar nuestros proyectos.Dentro de una planificación ambiental los datos estadísticos juegan
un papel muy importante, pues nos van a determinar en primera medida gastos y nos garantizara
la eficiencia. Este trabajo evidencia todos y cada uno de los temas vistos dentro del plan semestral
del programa ingeniería industrial lo aquí presentado permitió desarrollar el sentido de
localización de cada uno de los estudiantes pues fijo datos reales a temas teóricos.

Llevar un buen registro de datos estadísticos nos permite conocer de mejor manera el problema,
cuando nosotros conocemos la realidad de nuestras áreas afectadas; es más fácil dar soluciones.
Los diferentes tipos de distribuciones nos permiten prever eventos que puedan ocurrir, teniendo
en cuenta lo que ha sucedido anteriormente (datos históricos).Una de las técnicas mas utilizadas
dentro de la estadística es la medición de parámetros de tendencial central, la moda, mediana y
media. Lo cual nos permite centrar el problema y plantear puntos de referencia.

Para desarrollar un buen proyecto siempre es necesario conocer las bases estadísticas del lugar
donde vayamos a trabajar. Conocer la teoría nos ayuda a enfocar soluciones y conocer la realidad
nos ayuda a contextualizar y a diferenciar soluciones.

REFERENCIAS BIBLIOGRAFICAS
https://edu.gcfglobal.org/es/estadistica-basica/que-es-la-estadistica/1/

https://www.uv.es/ceaces/base/modelos%20de%20probabilidad/binegativa.htm

http://cidecame.uaeh.edu.mx/lcc/mapa/PROYECTO/libro19/52distribucin_exponencial.html
https://matemovil.com/estadistica/

https://www.gestiopolis.com/aplicaciones-de-la-estadistica-en-la-ingenieria/

También podría gustarte