14 Probabilidades
14 Probabilidades
14 Probabilidades
Tema 14
PROBABILIDADES
Grupo 5
PROBABILIDADES
Grupo 5
Página
INTRODUCCIÓN.....................................................................................................i
CAPITULO I
MARCO CONCEPTUAL
CAPITULO II
ELEMENTOS ESPECÍFICOS
CAPITULO III
HIPÓTESIS
3.1 Probabilidades.............................................................................................21
CAPITULO IV
APORTE TÉCNICO
CAPITULO V
CASOS DEMOSTRATIVOS
CONCLUSIONES.................................................................................................29
RECOMENDACIONES........................................................................................30
BIBLIOGRAFÍA.....................................................................................................31
INTRODUCCIÓN
i
CAPITULO I
MARCO CONCEPTUAL
La estadística es una ciencia que se ocupa del análisis de datos y del proceso de
toma de decisiones acerca del sistema del cual fueron obtenidos los datos. Las
aplicaciones estadísticas se presentan en muchos campos, incluyendo ingeniería,
ciencias físicas, negocios, ciencias biológicas y de la salud, ciencias sociales y
educación. Es conveniente identificar dos ramas principales de la estadística:
La probabilidad:
Es una metodología que permite la descripción de la variación aleatoria en los
sistemas. Por ejemplo, suponer que un ingeniero está tratando de determinar el
número de líneas troncales necesarias para proporcionar un nivel adecuado de
servicio en una instalación de telecomunicaciones. Las llamadas llegan a esta
2
La estadística inferencial:
1.3 Historia
Según Richard Jeffrey, antes de la mitad del siglo XVII, el término probable (en latín
probable) significaba aprobable, y se aplicaba en ese sentido, unívocamente, a la
opinión y a la acción. Una acción u opinión probable era una que las personas
sensatas emprenderían o mantendrían, en las circunstancias.
Pierre-Simon Laplace (1774) hizo el primer intento para deducir una regla para la
combinación de observaciones a partir de los principios de la teoría de las
probabilidades. Representó la ley de la probabilidad de error con una curva y = φ(x),
siendo x cualquier error e y su probabilidad, y expuso tres propiedades de esta curva:
Es simétrica al eje y;
El eje x es una asíntota, siendo la probabilidad del error igual a 0;
La superficie cerrada es 1, haciendo cierta la existencia de un error.
Dedujo una fórmula para la media de tres observaciones. También obtuvo (1781) una
fórmula para la ley de facilidad de error (un término debido a Lagrange, 1774), pero
una que llevaba a ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo el
principio del máximo producto de las probabilidades de un sistema de errores
concurrentes.
En el siglo XIX, los autores de la teoría general incluían a Laplace, Sylvestre Lacroix
(1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert
(1872), Hermann Laurent (1873), Liagre, Didion, y Karl Pearson. Augustus De Morgan
y George Boole mejoraron la exposición de la teoría.
Los procesos reales que se toman de modelo como procesos aleatorios pueden no
serlo realmente; cómo tirar una moneda o un dado no son procesos aleación en
sentido estricto, ya que no se reproducen exactamente las mismas condiciones
iniciales que lo determinan, sino sólo unas pocas. En los procesos reales que se
modelizan mediante distribuciones de probabilidad corresponden a modelos
complejos donde no se conocen a priori todos los parámetros que intervienen; ésta es
una de las razones por las cuales la estadística, que busca determinar estos
parámetros, no se reduce inmediatamente a la teoría de la probabilidad en sí.
El concepto de probabilidad nace con el deseo del hombre de conocer con certeza los
eventos futuros. Es por ello que el estudio de probabilidades surge como una
herramienta utilizada por los nobles para ganar en los juegos y pasatiempos de la
época. El desarrollo de estas herramientas fue asignado a los matemáticos de la
6
El enfoque clásico:
Dice que si hay x posibles resultados favorables a la ocurrencia de un evento A y z
posibles resultados desfavorables a la ocurrencia de A, y todos los resultados son
igualmente posibles y mutuamente excluyente (no pueden ocurrir los dos al mismo
tiempo), entonces la probabilidad de que ocurra A es:
P(A) = __x__
(x+z)
Ejemplo: Se ha observado que 9 de cada 50 vehículos que pasan por una esquina no
tienen cinturón de seguridad. Si un vigilante de transito se para en esa misma esquina
un ida cualquiera ¿Cuál será la probabilidad de que detenga un vehículo sin cinturón
de seguridad?
P(A) = ___9___ = 0.18 o 18%
50
Tanto el enfoque clásico como el enfoque empírico conducen a valores objetivos de
probabilidad, en el sentido de que los valores de probabilidad indican al largo plazo la
tasa relativa de ocurrencia del evento.
Ejemplo: Al lanzar una moneda solo puede ocurrir que salga cara o sello pero no los
dos a la vez, esto quiere decir que estos eventos son excluyentes.
Dos o más eventos son no excluyentes, o conjuntos, cuando es posible que ocurran
ambos. Esto no indica que necesariamente deban ocurrir estos eventos en forma
simultánea.
9
Reglas de la Adición
La Regla de la Adición expresa que: la probabilidad de ocurrencia de al menos dos
sucesos A y B es igual a:
P(A o B) = P(A) U P(B) = P(A) + P(B) si A y B son mutuamente excluyente
P(A o B) = P(A) + P(B) – P(A y B) si A y B son no excluyentes
Siendo: P(A) = probabilidad de ocurrencia del evento A
P(B) = probabilidad de ocurrencia del evento B
P(A y B) = probabilidad de ocurrencia simultanea de los eventos A y B
Eventos Independientes:
Dos o más eventos son independientes cuando la ocurrencia o no-ocurrencia de un
evento no tiene efecto sobre la probabilidad de ocurrencia del otro evento (o eventos).
Un caso típico de eventos independiente es el muestreo con reposición, es decir, una
vez tomada la muestra se regresa de nuevo a la población donde se obtuvo.
Ejemplo: lanzar al aire dos veces una moneda son eventos independientes por que el
resultado del primer evento no afecta sobre las probabilidades efectivas de que ocurra
cara o sello, en el segundo lanzamiento.
Eventos dependientes:
Dos o más eventos serán dependientes cuando la ocurrencia o no-ocurrencia de uno
de ellos afecta la probabilidad de ocurrencia del otro (o otros). Cuando tenemos este
caso, empleamos entonces, el concepto de probabilidad condicional para denominar
la probabilidad del evento relacionado. La expresión P(A|B) indica la probabilidad de
ocurrencia del evento A sí el evento B ya ocurrió. Se debe tener claro que A|B no es
una fracción.
Reglas de Multiplicación:
Se relacionan con la determinación de la ocurrencia de conjunta de dos o más
eventos. Es decir la intersección entre los conjuntos de los posibles valores de A y los
valores de B, esto quiere decir que la probabilidad de que ocurran conjuntamente los
eventos A y B es:
P(A y B) = P(A B) = P(A)P(B) si A y B son independientes
P(A y B) = P(A B) = P(A)P(B|A) si A y B son dependientes
P(A y B) = P(A B) = P(B)P(A|B) si A y B son dependientes
Variable aleatoria:
Las variables aleatorias, son los resultados numéricos de los experimentos, se
pueden dividir muy bien en dos categorías para simplificar el trabajo. Los resultados
que se originan en datos de conteo, como el número de artículos defectuosos por lote
o el número de bacterias por centímetro cúbico, se llaman variables aleatorias
discretas.
Distribución Binomial:
La distribución binomial es una distribución de probabilidad discreta, aplicable cada
vez que se suponga que un proceso de muestreo conforma un proceso de Benoulli.
Es decir que ocurra un proceso de muestreo en el cual:
P (x = m) = nCm Pm(1-P)n-m
Siendo nCm el numero total de combinaciones posibles de m elementos en un con
junto de n elementos. En otras palabras P(x = m) = m!/{m!(n-m)!}pm(1-p)n-m
12
Distribución de Polisón:
Se utiliza para determinar la probabilidad de un número designado de éxitos cuando
los eventos ocurren en un espectro continuo de tiempo y espacio. Tal proceso se
denomina Proceso de Poisson, es semejante al proceso de Bernoulli excepto que los
eventos ocurren en un espectro continuo en vez de ocurrir en ensayos u
observaciones fijas. Por ejemplo la entrada de materiales a una celda de producción,
la llegada de clientes a un servidor cualquiera, etc.
Se sabe que las medidas producidas en muchos procesos aleatorios siguen esta
distribución.
ELEMENTOS ESPECÍFICOS
factor ordenador de los resultados y el orden puede interesar” (p. 16), para justificar
que es posible calcular tanto una probabilidad condicional directa (respecto al tiempo)
como su inversa.
P(B) Σ=P(A)xP(B/A)
Cuadras y cols. (1984, p. 122) denominan “causas” a los sucesos {A1, A2, ..., An} con
P(Ai) > 0 que definen una partición del espacio muestral E y al suceso B “efecto”.
Calcular una probabilidad compuesta haciendo uso de la regla del producto en caso
de sucesos dependientes: “En una bolsa se tienen 4 bolas blancas y 2 bolas negras;
otra contiene 3 bolas blancas y 5 bolas negras. Si se saca una bola de cada bolsa,
hallar la probabilidad de que ambas sean blancas” (Spiegel, 1991, p. 139).
Calcular una probabilidad compuesta haciendo uso de la regla del producto en caso
de sucesos independientes. En una clase hay 100 personas. Calcular la probabilidad
de que al menos dos tengan el mismo cumpleaños (Peña. 1986, pg. 77).
20
Resolver problemas bayesianos: “Un test médico diseñado para la diagnosis de una
enfermedad detecta dicha enfermedad en el 90% de los pacientes que la padecen y
que son sometidos al mismo, pero da también positivo en el 2% de personas que sin
padecerla son sometidos al test. Sin embargo, al pasar el test a una población
determinada el porcentaje de contestaciones positivas del test correspondientes a
personas no afectas es nada menos que el 50%. Explicar este hecho...”. (Bernardo,
1981, pg. 77).
HIPÓTESIS
3.1 Probabilidades
Las probabilidades en las ciencias económicas, puede ser una excelente herramienta
para considerarse y utilizarse en la producción de artículos, finanzas, etc.
CAPITULO IV
APORTE TÉCNICO
Se puede decir que no existe una cosa llamada probabilidad. También se puede decir
que la probabilidad es la medida de nuestro grado de incertidumbre, o esto es, el
grado de nuestra ignorancia dada una situación. Por consiguiente, puede haber una
probabilidad de 1 entre 52 de que la primera carta en una baraja de cartas es la J de
diamantes. Sin embargo, si uno mira la primera carta y la reemplaza, entonces la
probabilidad es o bien 100% o 0%, y la elección correcta puede ser hecha con
precisión por el que ve la carta. La física moderna proporciona ejemplos importantes
de situaciones determinísticas donde sólo la descripción probabilística es factible
debido a información incompleta y la complejidad de un sistema así como ejemplos de
fenómenos realmente aleatorios.
CASOS DEMOSTRATIVOS
Un experimento consiste en lanzar una moneda y después lanzarla una segunda vez
si sale cara. Si sale escudo en el primer lanzamiento, entonces se lanza un dado una
vez. Para listar los elementos del espacio muestral que proporcione la mayor
información, se construye el diagrama de árbol. Las diversas trayectorias a lo largo
de las ramas del árbol dan los distintos puntos muestrales. Al comenzar con la rama
superior izquierda y moverse a la derecha a lo largo de la primera trayectoria, se
obtiene el punto muestral HH, que indica la posibilidad de que ocurran caras en dos
lanzamientos sucesivos de la moneda. Asimismo, el punto muestral T3 indica la
posibilidad de que la moneda mostrará escudo seguida por un 3 en el lanzamiento del
dado. Al seguir a lo largo de todas las trayectorias, se ve que el espacio muestral es
S= (HH, HT, T1, T2, T3, T4, T5, T6).
H HH
H
T HT
1 T1
2 T2
3 T3
T
4 T4
5 T5
6 T6
26
D DDD
D
D N DDN
D DND
N
N DNN
D NDD
D
N NDN
N
D NND
N
N NNN
Para sacar las probabilidades del segundo mes primero se debe de hacer para el
producto A donde del 60% que compran aquí el 75% sigue comprando este producto
y el 25% se cambia al otro producto. Para los que en el primer mes compraron el
producto de la competencia que era el 40%, en el segundo mes que compraron el
45% se cambio al producto A y el 55% siempre compró el producto de la
competencia, tomando encuentra que el porcentaje es igual a la probabilidad de cada
uno por lo que nuestro diagrama del árbol quedaría de esta forma:
En este caso solo nos interesa que en el segundo mes o sea al final los clientes
compren el producto A, esto quiere decir, que solo vamos se tomaran en cuenta los
28
En donde:
P(A)= 0.6
P(B)= 0.4
P(A 2 /A 1 ) = 0.75
P(B 2 /A 1 )= 0.25
P(B 2 /B 1 )= 0.55
P(A 2 /B 1 )= 0.45
CONCLUSIONES
Las probabilidades son una herramienta de vital importancia para poder realizar
análisis de diferente índole en cualquier ámbito de las ciencias, ya que su función
prácticamente es proyectar resultados para un futuro incierto, por lo tanto la
información que se obtenga será una incertidumbre, pero de utilidad para tomar
precauciones o decisiones pertinentes.
30
RECOMENDACIONES
BIBLIOGRAFÍA
Myers, Raymond H., Myers, Sharon L., Walpole, Ronald E., Ye, Keying. Probabilidad
Estadística para ingeniería y ciencias. Octava Edición. Impreso en Perason
Educación de México, S.A. de C.V. México de 2007.
www.fisicanet.com.ar
www.ingenieria-usac.edu.gt
www.monografías.com
www.rincondelvago.com
www.ugr.es