14 Probabilidades

Descargar como doc, pdf o txt
Descargar como doc, pdf o txt
Está en la página 1de 36

Universidad de San Carlos de Guatemala

Facultad de Ciencias Económicas


Escuela de Auditoría
Jornada Fin de Semana
Seminario de Integración Profesional

Tema 14

PROBABILIDADES

Grupo 5

Guatemala, febrero de 2013


Tema 14

PROBABILIDADES

Lic. German Rolando Ovando Amézquita


Docente Supervisor de Seminario de Integración Profesional

Grupo 5

No. Nombre Carné


1. Gloria Leticia Cervantes Mejía 198717186
2. Julia Magalí Velásquez Figueroa 199714937
3. Evaristo Monroy Picholá 199914945
4. Helda Hibony Ortíz Barrera 199920434
5. Karina Verónica Argueta Aguilar 200214419
6. Glayds Lily Alveño Hernández 200316828
7. Mayra Lisseth Valencia Guanta 200516364
8. Esdras Leopoldo Estrada Pérez (Coordinador) 200811608
9. Víctor Hugo Alonzo Esquit 200813660
ÍNDICE GENERAL

Página

INTRODUCCIÓN.....................................................................................................i

CAPITULO I
MARCO CONCEPTUAL

1.1 Concepto de Probabilidades.........................................................................1


1.2 La probabilidad y la estadística inferencial.................................................1
1.3 Historia.............................................................................................................2
1.4 Teoría de probabilidad...................................................................................4
1.5 Definición clásica de probabilidad...............................................................5
1.6 El enfoque de frecuencia relativa.................................................................7
1.7 El enfoque subjetivo.......................................................................................7
1.8 Espacio muestral............................................................................................7
1.9 El valor de la probabilidad.............................................................................8
1.10 Distribuciones de Probabilidad Discretas...............................................11

CAPITULO II
ELEMENTOS ESPECÍFICOS

2.1 Probabilidad Condicional...........................................................................16


2.1.1 Dependencia, independencia e intercambiabilidad............................16
2.1.2 Regla del producto..................................................................................17
2.1.3 Ley de la probabilidad total.....................................................................18
2.1.4 Probabilidad inversa y Teorema de Bayes.............................................18
2.1.5 Conocimiento procedimental..................................................................19

CAPITULO III
HIPÓTESIS

3.1 Probabilidades.............................................................................................21
CAPITULO IV
APORTE TÉCNICO

4.1 Aplicaciones de la teoría de probabilidades.............................................22

CAPITULO V
CASOS DEMOSTRATIVOS

5.1 Casos de Probabilidad.................................................................................25


5.1.1 Experimento de monedas y dados..........................................................25
5.1.2 Empresa de Dulces “La Miel”..................................................................26
5.2 Probabilidad Condicional...........................................................................27
5.2.1 Enunciado Pastas “La Nueva”.................................................................27
5.2.1.1 Solución del problema “Pastas La Nueva”........................................27

CONCLUSIONES.................................................................................................29
RECOMENDACIONES........................................................................................30
BIBLIOGRAFÍA.....................................................................................................31
INTRODUCCIÓN

Como parte del pensum de estudios de la Facultad de Ciencias Económicas, el


Seminario de Integración Profesional es una actividad académica diseñada para
poder llevar al estudiante a participar en el proceso de investigación y
presentación de temas de interés para la academia, aplicando sus
conocimientos adquiridos, como realizar un estudio de la problemática nacional
para aportar propuestas de solución, las cuales deben ser plasmadas a través
de un informe final.

En tal sentido, debido a que el Contador Público y Auditor debe conocer el


manejo de los activos de una entidad, la depreciación y agotamiento es un tema
de interés para los estudiantes de la Facultad de Ciencias Económicas, puesto
con la entrada en vigencia del Decreto 10-2012, algunos aspectos incluidos en la
antigua Ley del ISR Decreto 26-92, cambian totalmente.

No obstante, deben atenderse las disposiciones reglamentarias emitidas por


organismos internacionales para la adecuada revelación de la información en los
Estados Financieros de la Entidad.

Por tal motivo, en el presente trabajo de investigación se abordan en el capítulo


1, las generalidades y definiciones del tema, en el capítulo 2 trata de la
depreciación, agotamiento y diferentes modalidades, en el capítulo 3 se hace
mención al marco legal en la República de Guatemala, así como las normas
internacionales de contabilidad que aplican al tema y en el capítulo 4 se
presenta un caso práctico, donde se aplican los porcentajes de depreciación,
valor de rescate, etc.

i
CAPITULO I

MARCO CONCEPTUAL

1.1 Concepto de Probabilidades

La probabilidad constituye un importante parámetro en la determinación de las


diversas causalidades obtenidas tras una serie de eventos esperados dentro de un
rango estadístico. Se toma un valor axiomático para definir a la probabilidad como
una definición de conjunto en donde los elementos del dominio son conjuntos y los
elementos del rango son números reales. Si el evento A es un elemento en el
dominio de esta función, se utiliza la notación funcional establecida P(A), f(A), etc.,
para designar al elemento correspondiente del rango.

Existen diversas formas como método abstracto, como la teoría Dempster-Shafer y la


teoría de la relatividad numérica, esta última con un alto grado de aceptación si se
toma en cuenta que disminuye considerablemente las posibilidades hasta un nivel
mínimo ya que somete a todas las antiguas reglas a una simple ley de relatividad.

La estadística es una ciencia que se ocupa del análisis de datos y del proceso de
toma de decisiones acerca del sistema del cual fueron obtenidos los datos. Las
aplicaciones estadísticas se presentan en muchos campos, incluyendo ingeniería,
ciencias físicas, negocios, ciencias biológicas y de la salud, ciencias sociales y
educación. Es conveniente identificar dos ramas principales de la estadística:

1.2 La probabilidad y la estadística inferencial

La probabilidad:
Es una metodología que permite la descripción de la variación aleatoria en los
sistemas. Por ejemplo, suponer que un ingeniero está tratando de determinar el
número de líneas troncales necesarias para proporcionar un nivel adecuado de
servicio en una instalación de telecomunicaciones. Las llamadas llegan a esta
2

instalación de manera aleatoria, y el tiempo de manejo de llamadas o tiempo de


servicio no es constante entre llamada y llamada. Mediante el empleo de métodos
probabilísticos, es posible desarrollar un modelo analítico de este sistema y
determinar en forma relativamente precisa variables de decisión tales como el número
de líneas troncales y de operadores necesarios para proporcionar un nivel de servicio
específico.

La estadística inferencial:

Utiliza datos muéstrales para llegar a conclusiones generales acerca de la población


de la cual fue tomada la muestra. Por ejemplo, si se esta interesado en verificar la
queja de un fabricante acerca de la resistencia promedio a la rotura por torcimiento de
un lote de tejido especifico. Se selecciona y prueba una muestra de trozos de tela.
Entonces se pueden utilizar las técnicas de la inferencia estadística para analizar
estos datos muéstrales y llegar a conclusiones acerca de la resistencia de todo el lote
de tela.

1.3 Historia

El estudio científico de la probabilidad es un desarrollo moderno. Los juegos de azar


muestran que ha habido un interés en cuantificar las ideas de la probabilidad durante
milenios, pero las descripciones matemáticas exactas de utilidad en estos problemas
sólo surgieron mucho después.

Según Richard Jeffrey, antes de la mitad del siglo XVII, el término probable (en latín
probable) significaba aprobable, y se aplicaba en ese sentido, unívocamente, a la
opinión y a la acción. Una acción u opinión probable era una que las personas
sensatas emprenderían o mantendrían, en las circunstancias.

Aparte de algunas consideraciones elementales hechas por Girolamo Cardano en el


siglo XVI, la doctrina de las probabilidades data de la correspondencia de Pierre de
Fermat y Blaise Pascal (1654). Christiaan Huygens (1657) le dio el tratamiento
3

científico conocido más temprano al concepto. Ars Conjectandi (póstumo, 1713) de


Jakob Bernoulli y Doctrine of Chances (1718) de Abraham de Moivre trataron el tema
como una rama de las matemáticas. Véase El surgimiento de la probabilidad (The
Emergence of Probability) de Ian Hacking para una historia de los inicios del
desarrollo del propio concepto de probabilidad matemática.

La teoría de errores puede trazarse atrás en el tiempo hasta Opera Miscellanea


(póstumo, 1722) de Roger Cotes, pero una memoria preparada por Thomas Simpson
en 1755 (impresa en 1756) aplicó por primera vez la teoría para la discusión de
errores de observación. La reimpresión (1757) de esta memoria expone los axiomas
de que los errores positivos y negativos son igualmente probables, y que hay ciertos
límites asignables dentro de los cuales se supone que caen todos los errores; se
discuten los errores continuos y se da una curva de la probabilidad.

Pierre-Simon Laplace (1774) hizo el primer intento para deducir una regla para la
combinación de observaciones a partir de los principios de la teoría de las
probabilidades. Representó la ley de la probabilidad de error con una curva y = φ(x),
siendo x cualquier error e y su probabilidad, y expuso tres propiedades de esta curva:

Es simétrica al eje y;
El eje x es una asíntota, siendo la probabilidad del error igual a 0;
La superficie cerrada es 1, haciendo cierta la existencia de un error.

Dedujo una fórmula para la media de tres observaciones. También obtuvo (1781) una
fórmula para la ley de facilidad de error (un término debido a Lagrange, 1774), pero
una que llevaba a ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo el
principio del máximo producto de las probabilidades de un sistema de errores
concurrentes.

El método de mínimos cuadrados se debe a Adrien-Marie Legendre (1805), que lo


introdujo en su Nouvelles méthodes pour la détermination des orbites des comètes
(Nuevos métodos para la determinación de las órbitas de los cometas). Ignorando la
4

contribución de Legendre, un escritor irlandés estadounidense, Robert Adrain, editor


de "The Analyst" (1808), dedujo por primera vez la ley de facilidad de error,

siendo c y h constantes que dependen de la precisión de la


observación. Expuso dos demostraciones, siendo la segunda esencialmente la misma
de John Herschel (1850). Gauss expuso la primera demostración que parece que se
conoció en Europa (la tercera después de la de Adrain) en 1809. Demostraciones
adicionales se expusieron por Laplace (1810, 1812), Gauss (1823), James Ivory
(1825, 1826), Hagen (1837), Friedrich Bessel (1838), W. F. Donkin (1844, 1856) y
Morgan Crofton (1870). Otros personajes que contribuyeron fueron Ellis (1844), De
Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La fórmula de Peters
(1856) para r, el error probable de una única observación, es bien conocida.

En el siglo XIX, los autores de la teoría general incluían a Laplace, Sylvestre Lacroix
(1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert
(1872), Hermann Laurent (1873), Liagre, Didion, y Karl Pearson. Augustus De Morgan
y George Boole mejoraron la exposición de la teoría.

En 1930 Andréi Kolmogorov desarrolló la base axiomática de la probabilidad


utilizando teoría de la medida.

En la parte geométrica (véase geometría integral) los colaboradores de The


Educational Times fueron influyentes (Miller, Crofton, McColl, Wolstenholme, Watson
y Artemas Martin).

1.4 Teoría de probabilidad

La teoría de la probabilidad proporciona las bases matemáticas y el lenguaje de la


estadística, asimismo es la teoría matemática que modela los fenómenos aleatorios.
Estos deben contraponerse a los fenómenos determinísticos, en los cuales el
resultado de un experimento, realizado bajo condiciones determinadas, produce un
resultado único o previsible: por ejemplo, el agua calentada a 100 grados Celsius, a
nivel del mar, se transforma en vapor. Un fenómeno aleatorio es aquel que, a pesar
5

de realizarse el experimento bajo las mismas condiciones determinadas, tiene como


resultados posibles un conjunto de alternativas, como el lanzamiento de un dado o de
una moneda.

Los procesos reales que se toman de modelo como procesos aleatorios pueden no
serlo realmente; cómo tirar una moneda o un dado no son procesos aleación en
sentido estricto, ya que no se reproducen exactamente las mismas condiciones
iniciales que lo determinan, sino sólo unas pocas. En los procesos reales que se
modelizan mediante distribuciones de probabilidad corresponden a modelos
complejos donde no se conocen a priori todos los parámetros que intervienen; ésta es
una de las razones por las cuales la estadística, que busca determinar estos
parámetros, no se reduce inmediatamente a la teoría de la probabilidad en sí.

En 1933, el matemático soviético Andréi Kolmogórov propuso un sistema de axiomas


para la teoría de la probabilidad, basado en la teoría de conjuntos y en la teoría de la
medida, desarrollada pocos años antes por Lebesgue, Borel y Frechet entre otros.

Esta aproximación axiomática que generaliza el marco clásico de la probabilidad, la


cual obedece a la regla de cálculo de casos favorables sobre casos posibles, permitió
la vigorización de muchos argumentos ya utilizados, así como el estudio de problemas
fuera de los marcos clásicos. Actualmente, la teoría de la probabilidad encuentra
aplicación en las más variadas ramas del conocimiento, como puede ser la física
(donde corresponde mencionar el desarrollo de las difusiones y el movimiento
Browniano), o las finanzas (donde destaca el modelo de Black y Scholes para la
valuación de acciones).

1.5 Definición clásica de probabilidad

El concepto de probabilidad nace con el deseo del hombre de conocer con certeza los
eventos futuros. Es por ello que el estudio de probabilidades surge como una
herramienta utilizada por los nobles para ganar en los juegos y pasatiempos de la
época. El desarrollo de estas herramientas fue asignado a los matemáticos de la
6

corte. Con el tiempo estas técnicas matemáticas se perfeccionaron y encontraron


otros usos muy diferentes para la que fueron creadas. Actualmente se continúo con el
estudio de nuevas metodologías que permitan maximizar el uso de la computación en
el estudio de las probabilidades disminuyendo, de este modo, los márgenes de error
en los cálculos.

A través de la historia se han desarrollado tres enfoques conceptuales diferentes


para definir la probabilidad y determinar los valores de probabilidad:

El enfoque clásico:
Dice que si hay x posibles resultados favorables a la ocurrencia de un evento A y z
posibles resultados desfavorables a la ocurrencia de A, y todos los resultados son
igualmente posibles y mutuamente excluyente (no pueden ocurrir los dos al mismo
tiempo), entonces la probabilidad de que ocurra A es:
P(A) = __x__
(x+z)

El enfoque clásico de la probabilidad se basa en la suposición de que cada resultado


sea igualmente posible. Este enfoque es llamado enfoque a priori porque permite, (en
caso de que pueda aplicarse) calcular el valor de probabilidad antes de observar
cualquier evento de muestra.

Ejemplo: Si tenemos en una caja 15 piedras verdes y 9 piedras rojas. La probabilidad


de sacar una piedra roja en un intento es:

P(A) = ____9____= 0.375 o 37.5%


9+15
7

1.6 El enfoque de frecuencia relativa

También llamado Enfoque Empírico, determina la probabilidad sobre la base de la


proporción de veces que ocurre un evento favorable en un número de observaciones.
En este enfoque no ese utiliza la suposición previa de aleatoriedad. Porque la
determinación de los valores de probabilidad se basa en la observación y recopilación
de datos.

Ejemplo: Se ha observado que 9 de cada 50 vehículos que pasan por una esquina no
tienen cinturón de seguridad. Si un vigilante de transito se para en esa misma esquina
un ida cualquiera ¿Cuál será la probabilidad de que detenga un vehículo sin cinturón
de seguridad?
P(A) = ___9___ = 0.18 o 18%
50
Tanto el enfoque clásico como el enfoque empírico conducen a valores objetivos de
probabilidad, en el sentido de que los valores de probabilidad indican al largo plazo la
tasa relativa de ocurrencia del evento.

1.7 El enfoque subjetivo

Dice que la probabilidad de ocurrencia de un evento es el grado de creencia por parte


de un individuo de que un evento ocurra, basado en toda la evidencia a su
disposición. Bajo esta premisa se puede decir que este enfoque es adecuado cuando
solo hay una oportunidad de ocurrencia del evento. Es decir, que el evento ocurrirá o
no ocurrirá esa sola vez. El valor de probabilidad bajo este enfoque es un juicio
personal.

1.8 Espacio muestral

Se llama espacio muestral (E) asociado a un experimento aleatorio, el conjunto de


todos los resultados posibles de dicho experimento. En el estudio de la estadística se
trata básicamente con la presentación e interpretación de resultados fortuitos que
ocurren en un estudio planeado o en una investigación científica. Por ejemplo, al
8

registrar el número de accidentes que ocurren mensualmente en la intersección de


Driftwood Lane y Royal Oak Drive, con la finalidad de justificar la instalación de un
semáforo; o al clasificar los artículos que salen de una línea de ensamble como
“defectuosos” o “no defectuosos”; o al revisar el volumen de gas que se libera en una
reacción química cuando se varía la concentración de un ácido. Por ello, el
estadístico a menudo trata con datos experimentales, conteos o mediciones
representativos, o quizá con datos categóricos que se podrían clasificar de acuerdo
con algún criterio.

1.9 El valor de la probabilidad


El valor más pequeño que puede tener la probabilidad de ocurrencia de un evento es
igual a 0, el cual indica que el evento es imposible, y el valor mayor es 1, que indica
que el evento ciertamente ocurrirá. Entonces si decimos que P(A) es la probabilidad
de ocurrencia de un evento A y P(A´ ) la probabilidad de no-ocurrencia de A, tenemos
que:

0 < P(A) < 1


P(A) + P(A´) = 1

Eventos mutuamente excluyentes y eventos no excluyentes:


Dos o más eventos son mutuamente excluyentes o disjuntos, si no pueden ocurrir
simultáneamente. Es decir, la ocurrencia de un evento impide automáticamente la
ocurrencia del otro evento (o eventos).

Ejemplo: Al lanzar una moneda solo puede ocurrir que salga cara o sello pero no los
dos a la vez, esto quiere decir que estos eventos son excluyentes.

Dos o más eventos son no excluyentes, o conjuntos, cuando es posible que ocurran
ambos. Esto no indica que necesariamente deban ocurrir estos eventos en forma
simultánea.
9

Ejemplo: Si consideramos en un juego de domino sacar al menos un blanco y un seis,


estos eventos son no excluyentes porque puede ocurrir que salga el seis blanco.

Reglas de la Adición
La Regla de la Adición expresa que: la probabilidad de ocurrencia de al menos dos
sucesos A y B es igual a:
P(A o B) = P(A) U P(B) = P(A) + P(B) si A y B son mutuamente excluyente
P(A o B) = P(A) + P(B) – P(A y B) si A y B son no excluyentes
Siendo: P(A) = probabilidad de ocurrencia del evento A
P(B) = probabilidad de ocurrencia del evento B
P(A y B) = probabilidad de ocurrencia simultanea de los eventos A y B

Eventos Independientes:
Dos o más eventos son independientes cuando la ocurrencia o no-ocurrencia de un
evento no tiene efecto sobre la probabilidad de ocurrencia del otro evento (o eventos).
Un caso típico de eventos independiente es el muestreo con reposición, es decir, una
vez tomada la muestra se regresa de nuevo a la población donde se obtuvo.
Ejemplo: lanzar al aire dos veces una moneda son eventos independientes por que el
resultado del primer evento no afecta sobre las probabilidades efectivas de que ocurra
cara o sello, en el segundo lanzamiento.
Eventos dependientes:
Dos o más eventos serán dependientes cuando la ocurrencia o no-ocurrencia de uno
de ellos afecta la probabilidad de ocurrencia del otro (o otros). Cuando tenemos este
caso, empleamos entonces, el concepto de probabilidad condicional para denominar
la probabilidad del evento relacionado. La expresión P(A|B) indica la probabilidad de
ocurrencia del evento A sí el evento B ya ocurrió. Se debe tener claro que A|B no es
una fracción.

P(A|B) = P(A y B)/P(B) o P(B|A) = P(A y B)/P(A)


10

Reglas de Multiplicación:
Se relacionan con la determinación de la ocurrencia de conjunta de dos o más
eventos. Es decir la intersección entre los conjuntos de los posibles valores de A y los
valores de B, esto quiere decir que la probabilidad de que ocurran conjuntamente los
eventos A y B es:
P(A y B) = P(A B) = P(A)P(B) si A y B son independientes
P(A y B) = P(A B) = P(A)P(B|A) si A y B son dependientes
P(A y B) = P(A B) = P(B)P(A|B) si A y B son dependientes

Distribuciones de variables aleatorias discretas

Variable aleatoria:
Las variables aleatorias, son los resultados numéricos de los experimentos, se
pueden dividir muy bien en dos categorías para simplificar el trabajo. Los resultados
que se originan en datos de conteo, como el número de artículos defectuosos por lote
o el número de bacterias por centímetro cúbico, se llaman variables aleatorias
discretas.

La mayor parte de los experimentos generan resultados que se pueden interpretar en


términos de números reales, como por ejemplo, tallas de niños, números de votantes
a favor de determinado candidato, resistencias de alambres a la tensión y número de
accidente en determinados cruces. Estos resultados numéricos, cuyos valores
pueden cambiar de un experimento a otro, se llaman variables aleatorias. Una
variable aleatoria es una función de valor real cuyo dominio es un espacio muestral.

Generalmente una distribución de frecuencia de una variable aleatoria se caracteriza


por dos estadísticos derivados: su media y su varianza. La descripción mediante estos
números es una función de frecuencia de probabilidad, aunque incompleta, es valiosa
en muchas de las aplicaciones.
11

1.10 Distribuciones de Probabilidad Discretas

Son funciones de probabilidad en las cuales la variable aleatoria toma valores


discretos, entre las más importantes tenemos: La Distribución de Bernoulli o
Distribución Binomial, la Distribución Hipergeométrica, Distribución de Poisson.

Distribución Binomial:
La distribución binomial es una distribución de probabilidad discreta, aplicable cada
vez que se suponga que un proceso de muestreo conforma un proceso de Benoulli.
Es decir que ocurra un proceso de muestreo en el cual:

Hay dos resultados posibles mutuamente excluyentes en cada ensayo u observación.


La serie de ensayos u observaciones constituyen eventos independientes.
La probabilidad de éxito permanece constante de ensayo a ensayo, es decir el
proceso es estacionario.

Para aplicar esta distribución al cálculo de la probabilidad de obtener un número dado


de éxitos en una serie de experimentos en un proceso de Bermnoulli, se requieren
tres valores: el número designado de éxitos (m), el número de ensayos y
observaciones (n); y la probabilidad de éxito en cada ensayo (p). Entonces la
probabilidad de que ocurran m éxitos en un experimento de n ensayos es:

P (x = m) = nCm Pm(1-P)n-m
Siendo nCm el numero total de combinaciones posibles de m elementos en un con
junto de n elementos. En otras palabras P(x = m) = m!/{m!(n-m)!}pm(1-p)n-m
12

Distribución Binomial expresada en Proporciones:


En lugar de expresar la variable aleatoria como el número de éxitos X, podemos
designarla en términos de la proporción de éxitos, p, que es la relación entre el
número de éxitos y el número de ensayos:
P=X
n
En tales casos la formula se modifica solo respeto de la definición de la proporción:
P( p = P/n) = nCxpx(1-p)n-x
N
Distribución Hipergeometrica:
Cuando el muestreo se hace sin reemplazo de cada artículo muestreado tomado de
una población finita de artículos, no se aplica el proceso de Bernoulli porque hay un
cambio sistemático en la probabilidad de éxitos a medida que se retiran los ítems de
la población. Es por ello que se utiliza la distribución de probabilidad Hipergeométrica
por ser la más apropiada.

Si X es el número designado de éxitos, N es el número total de ítems en la población,


XT es el número total de éxitos incluidos en la población y n es el número de ítems de
la muestra.

Distribución de Polisón:
Se utiliza para determinar la probabilidad de un número designado de éxitos cuando
los eventos ocurren en un espectro continuo de tiempo y espacio. Tal proceso se
denomina Proceso de Poisson, es semejante al proceso de Bernoulli excepto que los
eventos ocurren en un espectro continuo en vez de ocurrir en ensayos u
observaciones fijas. Por ejemplo la entrada de materiales a una celda de producción,
la llegada de clientes a un servidor cualquiera, etc.

Solo se requiere un valor parea determinar la probabilidad de un número designado


de éxitos en un proceso de Poisson: el número promedio de éxitos para la dimensión
13

especifica de tiempo o espacio de interés. Este número promedio se representa


generalmente por . La expresión o  matemática de la distribución de Poisson es:
P(x| ) = xe- /x!

Aproximación de Poisson de Probabilidades Binomiales:


Cuando el número de observaciones o ensayos n en un proceso de Bernoulli es muy
grande, los cálculos son bastante tediosos. Más aun, en general no se encuentran
tablas de probabilidad con valores muy pequeños de p. En estos casos la distribución
de Poisson es conveniente como una aproximación de probabilidades binomiales
cuando n es grande y p o (1-p) es pequeño. Empíricamente esta aproximación se
puede hacer cuando n > 30, y np < 5. La media de la distribución de Poisson, utilizada
para aproximar probabilidades binomiales es:
 = np

Distribuciones de variables aleatorias continuas

Variables aleatorias continuas:


A diferencia de una variable aleatoria discreta, una variable aleatoria continua es
aquella que puede tener cualquier valor fraccional dentro de un rango definido de
valores. Es decir, este tipo de variable se define en espacios de muestra con un
número de puntos infinitos no de numerable. Se retendrá la noción de un "intento"
como conjunto de operaciones que dan por resultado algún valor definido pero
aleatorio de x. Entonces si a es algún valor particular en el dominio de definición de x,
el evento "el valor de x que resulta de un intento es menor o igual que a" tiene una
probabilidad, definida P{x < a, para cada valor a en el dominio de x. De esta manera,
para una distribución de probabilidad, no se pueden enumerar todos los valores
posibles para una variable aleatoria continua x junto con un valor de probabilidad
correspondiente.

En este caso el enfoque más conveniente es elaborar una función de densidad de


probabilidad, basada en la función matemática correspondiente. La proporción del
arrea incluida entre dos puntos cualesquiera por debajo de la curva de probabilidad
14

identifica la probabilidad de que una variable continua aleatoriamente seleccionada


tenga un valor entre esos puntos.

Distribución de probabilidad normal:


Es una distribución de probabilidad continua que es tanto simétrica como mesocurtica.
La curva que representa la distribución de probabilidad normal se describe
generalmente como en forma de campana. Esta distribución es importante en
inferencia estadística por tres razones diferentes:

Se sabe que las medidas producidas en muchos procesos aleatorios siguen esta
distribución.

Las probabilidades normales pueden utilizarse generalmente para aproximar otras


distribuciones de probabilidad, tales como las distribuciones binomial y de Poisson.
Las distribuciones estadísticas tales como la media de la muestra y la proporción de la
muestra, siguen a menudo la distribución normal, sin tener en cuenta la distribución
de la población

Distribución de probabilidad exponencial:

Si en el contexto de un proceso de Poisson ocurren eventos o éxitos en un espectro


continuo de tiempo y espacio. Entonces la longitud del espacio o tiempo entre eventos
sucesivos sigue una distribución de probabilidad exponencial. Puesto que el tiempo y
el espacio son un espectro continuo, esta es una distribución continua. En caso de
este tipo de distribución no vale la pena preguntarse ¿cuál es la probabilidad de que
el primer pedido de servicio se haga exactamente de aquí a un minuto?. Mas bien
debemos asignar un intervalo dentro del cual el evento puede ocurrir,
preguntándonos, ¿cuál es la probabilidad de que el primer pedido se produzca en el
próximo minuto?.
15

Dado que el proceso de Poisson es estacionario, la distribución exponencial se aplica


ya sea cuando estamos interesados en el tiempo (o espacio) hasta el primer evento,
el tiempo entre dos eventos sucesivos, o el tiempo hasta que ocurra el primer evento
después de cualquier punto aleatoriamente seleccionado.

Donde  es la cifra media de ocurrencias para el intervalo de interés, la probabilidad


exponencial de que el primer evento ocurra dentro del intervalo designado de tiempo
o espacio es: P(T < t) = 1 - e -

De manera que la probabilidad exponencial de que el primer evento no ocurra dentro


del intervalo designado de tiempo o espacio es: P(T > t) = e -
CAPITULO II

ELEMENTOS ESPECÍFICOS

2.1 Probabilidad Condicional

La probabilidad condicional permite incorporar cambios en el grado de creencia sobre


los sucesos aleatorios cuando se adquiere nueva información. Es también un
concepto requerido en la construcción de la probabilidad producto, la inferencia
estadística, clásica y bayesiana, asociación entre variables, regresión, modelos
lineales y toma de decisiones bajo incertidumbre.

2.1.1 Dependencia, independencia e intercambiabilidad

Matemáticamente la independencia puede deducirse de la regla del producto: A y B


son independientes si y sólo si P (A∩B) =P (A) x P(B). También se relaciona con la
probabilidad condicional, ya que dos sucesos son independientes si la probabilidad de
uno de ellos no cambia al condicionarlo por el otro. Cuadras y cols. (1984) afirman
que esta propiedad es condición necesaria y suficiente para que dos sucesos sean
independientes. Según Peña (1986), aunque la independencia entre sucesos se
puede prever en algunos casos, generalmente debe determinarse experimentalmente.
Cuadras y cols. (1984) deducen algunas propiedades más: Si A y B son dos sucesos
independientes, también son independientes A y B; A y B ; A y B (p. 116).

Del concepto de independencia se deduce el concepto de sucesos dependientes. Un


concepto directamente relacionado con los anteriores que se suele confundir con ellos
es el de sucesos mutuamente excluyentes, que, precisamente son dependientes, ya
que la ocurrencia de uno hace que el otro no pueda ocurrir.

Otra confusión es la relación entre dependencia y causalidad. En Sacerdote y Balima


(en preparación) se discute explícitamente, indicando que “la estadística no se ocupa
de las relaciones causa-efecto;...puede ayudar a orientar una ciencia que estudia la
naturaleza hacia una explicación causal, pero no a justificarla” (p. 16).También resalta
que “el tiempo no interviene en la estadística, aunque para algunos modelos será el
17

factor ordenador de los resultados y el orden puede interesar” (p. 16), para justificar
que es posible calcular tanto una probabilidad condicional directa (respecto al tiempo)
como su inversa.

En algunos de los textos de enfoque bayesiano se incluye la intercambiabilidad, como


hipótesis no tan restrictiva como la independencia. Por ejemplo, en Berry (1996, pg.
134):

Dos experimentos son intercambiables si se cumple lo siguiente:

Los posibles resultados son los mismos en los dos;


La probabilidad de cada resultado de uno es la misma que en el otro;
La probabilidad condicional para el segundo experimento, dados los resultados del
primero son las mismas que las probabilidades condicionales del primero, dado el
segundo.

2.1.2 Regla del producto

Esta regla permite calcular las probabilidades en experimentos compuestos. “La


probabilidad de verificación simultánea de dos sucesos independientes es igual al
producto de sus probabilidades simples.” (Botella y cols., 1993 p.283). Algunos textos,
como Nortes (1993), proporcionan la regla diferenciando entre sucesos
independientes y dependientes para su aplicación. Una aplicación frecuente es la
repetición independiente de un mismo experimento aleatorio:

( P A∩B∩C =P A ×P B)×P(C) ); P (A1 ∩ A2 ∩ ... An ) =P(A) x P(A2) x … x

P(An)Para dos sucesos dependientes, la regla se expresa (Nortes, 1993, p. 219):

“P (A∩B) =P (A) x P(B/A) P(A∩B∩C)=P(A)×P(B/A)×P(C/A∩B) ”.


18

2.1.3 Ley de la probabilidad total

Introducido el experimento compuesto, se suele pasar al teorema de la probabilidad


total. En estos casos se cuenta con un n sucesos A1, A2, ..., An incompatibles o
mutuamente excluyentes, tales que su unión de el espacio muestral E. Se conocen
las probabilidades P(A1), P(A2), ... P(An). Se cuenta además con un suceso B del
que se conoce su probabilidad condicionada (P(B/A1), P(B/A2), P(B/An), a cada uno
de los sucesos Ai. La ley de probabilidad total permite conocer P(B) (Nortes, 1993, p.
223).

P(B) Σ=P(A)xP(B/A)

En otros casos no aparece explícitamente definida, pero se presenta implícitamente


como parte del estudio del Teorema de Bayes (es el caso de Albert y Rossman,
2001).

2.1.4 Probabilidad inversa y Teorema de Bayes

Para introducir el teorema de Bayes, Peña y Romo (1997) describe un tipo de


experimento con dos etapas. En la primera los sucesos posibles (A1, ..., Ai) son
mutuamente excluyentes, cada uno con probabilidad conocida P(Ai) y cuya sumatoria
es uno. En la segunda etapa los resultados posibles Bj dependen de los resultados en
la primera y se conocen las probabilidades condicionadas P(Bj/Ai).. El teorema de
Bayes permite calcular las probabilidades P(Ai/Bj) del resultado desconocido en la
primera etapa, conociendo el resultado observado en la segunda.

Cuadras y cols. (1984, p. 122) denominan “causas” a los sucesos {A1, A2, ..., An} con
P(Ai) > 0 que definen una partición del espacio muestral E y al suceso B “efecto”.

Sabiendo que ha ocurrido S, podemos calcular la probabilidad de que proceda de la


causa Ai haciendo uso del teorema de Bayes. Hablan específicamente de
19

probabilidades a priori P(Ai), probabilidades a posteriori P(Ai/B) y verosimilitudes


P(B/Ai).

2.1.5 Conocimiento procedimental

Podemos clasificar los problemas encontrados en las siguientes categorías:

Calcular una probabilidad condicional en un experimento simple: “Considerando el


lanzamiento de un dado y siendo A={sacar impar} y B={3,4}, la probabilidad P(A/B) de
sacar número impar en el lanzamiento de un dado habiendo sacado antes 3 o 4 es ...”
(Nortes, 1993, p. 218).

Calcular una probabilidad condicional en el contexto de muestreo con reposición


(regla de Laplace): “De una baraja de 52 naipes mezclados al azar se sacan dos
naipes. Hallar la probabilidad de que ambos sean ases si la primera extraída se
devuelve a la baraja” (Spiegel, 1991, p. 138).

Calcular una probabilidad condicional, en el contexto de muestreo sin reposición


(regla de Laplace): “Una caja contiene 3 bolas blancas y 2 bolas negras. Sea E1 el
suceso “la primera bola extraída es negra” y E2 el suceso “la segunda bola extraída
es negra”. Las bolas no se devuelven a la caja...” (Spiegel, 1991, p. 130).

Calcular una probabilidad compuesta haciendo uso de la regla del producto en caso
de sucesos dependientes: “En una bolsa se tienen 4 bolas blancas y 2 bolas negras;
otra contiene 3 bolas blancas y 5 bolas negras. Si se saca una bola de cada bolsa,
hallar la probabilidad de que ambas sean blancas” (Spiegel, 1991, p. 139).

Calcular una probabilidad compuesta haciendo uso de la regla del producto en caso
de sucesos independientes. En una clase hay 100 personas. Calcular la probabilidad
de que al menos dos tengan el mismo cumpleaños (Peña. 1986, pg. 77).
20

Determinar si dos sucesos son dependientes o independientes: “En un grupo de 1000


sujetos se encontraron 500 sujetos aptos de los que 300 tenían inteligencia superior.
De los 400 con inteligencia superior 300 resultaron aptos. ¿Son los sucesos A: “ser
superior a la media en inteligencia” y B “ser apto en rendimiento” independientes?
(Botella, León y San Martín, 1993, p. 283).

Diferenciar entre sucesos mutuamente excluyentes y sucesos independientes:


¿Puede ser independientes dos sucesos mutuamente excluyentes que tienen
probabilidad no nula? (Peña, 1986, p.77).

Calcular la probabilidad total. Todos los problemas relacionados con el teorema de


Bayes implica la resolución de un problema de probabilidad total.

Resolver problemas bayesianos: “Un test médico diseñado para la diagnosis de una
enfermedad detecta dicha enfermedad en el 90% de los pacientes que la padecen y
que son sometidos al mismo, pero da también positivo en el 2% de personas que sin
padecerla son sometidos al test. Sin embargo, al pasar el test a una población
determinada el porcentaje de contestaciones positivas del test correspondientes a
personas no afectas es nada menos que el 50%. Explicar este hecho...”. (Bernardo,
1981, pg. 77).

Resolver problemas de probabilidad condicional y conjunta en experimentos


compuestos de diferentes experimentos simples: “En una universidad terminan la
carrera el 5% de Arquitectura, el 10% de Ciencias y el 50% de Letras. Eligiendo un
estudiante al azar se pide: a) Probabilidad de que sea de Arquitectura y haya
terminado la carrera” (Cuadras y cols., 1984, p. 137).

Estimar probabilidades condicionales y conjuntas mediante simulación: “Considera el


ejemplo de prueba sanguínea discutido en el capítulo. Supón que haces tres pruebas
y son todas positivas. ¿Tienes una alta probabilidad de tener la enfermedad? Usa
Minitab en los cálculos" (Albert y Rossman, 2001, p. 34).
CAPITULO III

HIPÓTESIS

3.1 Probabilidades

Las probabilidades están relacionadas directamente con las matemáticas y


estadística, su función es aportar una herramienta en las diferentes áreas de las
ciencias, toda vez que la estadística es utilizada para mejorar la información que se
traslada a los usuarios en el caso de una investigación.

Las probabilidades en las ciencias económicas, puede ser una excelente herramienta
para considerarse y utilizarse en la producción de artículos, finanzas, etc.
CAPITULO IV

APORTE TÉCNICO

4.1 Aplicaciones de la teoría de probabilidades

Dos aplicaciones principales de la teoría de la probabilidad en el día a día son en el


análisis de riesgo y en el comercio de los mercados de materias primas. Los
gobiernos normalmente aplican métodos probabilísticos en regulación ambiental
donde se les llama "análisis de vías de dispersión", y a menudo miden el bienestar
usando métodos que son estocásticos por naturaleza, y escogen qué proyectos
emprender basándose en análisis estadísticos de su probable efecto en la población
como un conjunto. No es correcto decir que la estadística está incluida en el propio
modelado, ya que típicamente los análisis de riesgo son para una única vez y por lo
tanto requieren más modelos de probabilidad fundamentales, por ej. "la probabilidad
de otro 11-S". Una ley de números pequeños tiende a aplicarse a todas aquellas
elecciones y percepciones del efecto de estas elecciones, lo que hace de las medidas
probabilísticas un tema político.

Un buen ejemplo es el efecto de la probabilidad percibida de cualquier conflicto


generalizado sobre los precios del petróleo en Oriente Medio - que producen un
efecto dominó en la economía en conjunto. Un cálculo por un mercado de materias
primas en que la guerra es más probable en contra de menos probable
probablemente envía los precios hacia arriba o hacia abajo e indica a otros
comerciantes esa opinión. Por consiguiente, las probabilidades no se calculan
independientemente y tampoco son necesariamente muy racionales. La teoría de las
finanzas conductuales surgió para describir el efecto de este pensamiento de grupo
en el precio, en la política, y en la paz y en los conflictos.

Se puede decir razonablemente que el descubrimiento de métodos rigurosos para


calcular y combinar los cálculos de probabilidad ha tenido un profundo efecto en la
sociedad moderna. Por consiguiente, puede ser de alguna importancia para la
23

mayoría de los ciudadanos entender cómo se calculan los pronósticos y las


probabilidades, y cómo contribuyen a la reputación y a las decisiones, especialmente
en una democracia.

Otra aplicación significativa de la teoría de la probabilidad en el día a día es en la


fiabilidad. Muchos bienes de consumo, como los automóviles y la electrónica de
consumo, utilizan la teoría de la fiabilidad en el diseño del producto para reducir la
probabilidad de avería. La probabilidad de avería también está estrechamente
relacionada con la garantía del producto.

Se puede decir que no existe una cosa llamada probabilidad. También se puede decir
que la probabilidad es la medida de nuestro grado de incertidumbre, o esto es, el
grado de nuestra ignorancia dada una situación. Por consiguiente, puede haber una
probabilidad de 1 entre 52 de que la primera carta en una baraja de cartas es la J de
diamantes. Sin embargo, si uno mira la primera carta y la reemplaza, entonces la
probabilidad es o bien 100% o 0%, y la elección correcta puede ser hecha con
precisión por el que ve la carta. La física moderna proporciona ejemplos importantes
de situaciones determinísticas donde sólo la descripción probabilística es factible
debido a información incompleta y la complejidad de un sistema así como ejemplos de
fenómenos realmente aleatorios.

En un universo determinista, basado en los conceptos newtonianos, no hay


probabilidad si se conocen todas las condiciones. En el caso de una ruleta, si la
fuerza de la mano y el periodo de esta fuerza es conocida, entonces el número donde
la bola parará será seguro. Naturalmente, esto también supone el conocimiento de la
inercia y la fricción de la ruleta, el peso, lisura y redondez de la bola, las variaciones
en la velocidad de la mano durante el movimiento y así sucesivamente. Una
descripción probabilística puede entonces ser más práctica que la mecánica
newtoniana para analizar el modelo de las salidas de lanzamientos repetidos de la
ruleta. Los físicos se encuentran con la misma situación en la teoría cinética de los
gases, donde el sistema determinístico en principio, es tan complejo (con el número
24

de moléculas típicamente del orden de magnitud de la constante de Avogadro

) que sólo la descripción estadística de sus propiedades es viable.

La mecánica cuántica, debido al principio de indeterminación de Heisenberg, sólo


puede ser descrita actualmente a través de distribuciones de probabilidad, lo que le
da una gran importancia a las descripciones probabilísticas. Algunos científicos
hablan de la expulsión del paraíso. Otros no se conforman con la pérdida del
determinismo. Albert Einstein comentó estupendamente en una carta a Max Born:
Jedenfalls bin ich überzeugt, daß der Alte nicht würfelt. (Estoy convencido de que Dios
no tira el dado). No obstante hoy en día no existe un medio mejor para describir la
física cuántica si no es a través de la teoría de la probabilidad. Mucha gente hoy en
día confunde el hecho de que la mecánica cuántica se describe a través de
distribuciones de probabilidad con la suposición de que es por ello un proceso
aleatorio, cuando la mecánica cuántica es probabilística no por el hecho de que siga
procesos aleatorios sino por el hecho de no poder determinar con precisión sus
parámetros fundamentales, lo que imposibilita la creación de un sistema de
ecuaciones determinista.
CAPITULO V

CASOS DEMOSTRATIVOS

5.1 Casos de Probabilidad

5.1.1 Experimento de monedas y dados

Un experimento consiste en lanzar una moneda y después lanzarla una segunda vez
si sale cara. Si sale escudo en el primer lanzamiento, entonces se lanza un dado una
vez. Para listar los elementos del espacio muestral que proporcione la mayor
información, se construye el diagrama de árbol. Las diversas trayectorias a lo largo
de las ramas del árbol dan los distintos puntos muestrales. Al comenzar con la rama
superior izquierda y moverse a la derecha a lo largo de la primera trayectoria, se
obtiene el punto muestral HH, que indica la posibilidad de que ocurran caras en dos
lanzamientos sucesivos de la moneda. Asimismo, el punto muestral T3 indica la
posibilidad de que la moneda mostrará escudo seguida por un 3 en el lanzamiento del
dado. Al seguir a lo largo de todas las trayectorias, se ve que el espacio muestral es
S= (HH, HT, T1, T2, T3, T4, T5, T6).

Primer Segundo Punto


resultado resultado muestral

H HH
H
T HT

1 T1
2 T2
3 T3
T
4 T4
5 T5
6 T6
26

5.1.2 Empresa de Dulces “La Miel”

En la Empresa de Dulces “La Miel” en un proceso de fabricación, se seleccionan tres


artículos de forma aleatoria. Cada artículo se inspecciona y clasifica como
defectuoso, D, o sin defectos (no defectuoso), N. Para listar los elementos del
espacio muestral que brinde la mayor información, se construye el diagrama de árbol,
de manera que las diversas trayectorias a lo largo de las ramas del árbol den los
distintos puntos muestrales. Al comenzar con la primera trayectoria, se obtiene el
punto muestral DDD, que indica la posibilidad de que los tres artículos inspeccionados
estén defectuosos. Conforme se continúa a lo largo de las demás trayectorias, se ve
que el espacio muestral es:

S= (DDD, DDN, DND, DNN, NDD, NDN, NND, NNN).

Primer Segundo Tercer Punto


artículo artículo artículo muestral

D DDD
D
D N DDN
D DND
N
N DNN
D NDD
D
N NDN
N
D NND
N
N NNN

5.2 Probabilidad Condicional

5.2.1 Enunciado Pastas “La Nueva”


Durante el mes de enero de 2009 cierto producto es preferido por el 60% del mercado
y otros varios por el resto. Los clientes compran una vez al mes. Si alguien compra el
27

producto A, la probabilidad que lo vuelva a comprar en el siguiente mes es de 75% y


de un 25% de que se cambie. Si un cliente compra un producto de la competencia en
un mes la probabilidad que se cambie al producto A es de 45% y 55% de que
permanezca fiel a la marca de la competencia. Encuentre el porcentaje de
participación esperado en el mercado por A al final del segundo mes.

5.2.1.1 Solución del problema “Pastas La Nueva”


Aquí se realiza un diagrama de árbol donde se definirán primero la probabilidad de
aceptación en el primer mes por el producto A que en este caso sería el 60%, y el
40% sería el del producto de la competencia.

Para sacar las probabilidades del segundo mes primero se debe de hacer para el
producto A donde del 60% que compran aquí el 75% sigue comprando este producto
y el 25% se cambia al otro producto. Para los que en el primer mes compraron el
producto de la competencia que era el 40%, en el segundo mes que compraron el
45% se cambio al producto A y el 55% siempre compró el producto de la
competencia, tomando encuentra que el porcentaje es igual a la probabilidad de cada
uno por lo que nuestro diagrama del árbol quedaría de esta forma:

En este caso solo nos interesa que en el segundo mes o sea al final los clientes
compren el producto A, esto quiere decir, que solo vamos se tomaran en cuenta los
28

porcentajes de aceptación del producto A, ya sea que desde el inicio compro el


producto A o no pero que al final si compro A.

Por lo que quedaría de esta forma:


P( C ) = ( 0.6*0.75) + (0.4*0.45) = 0.63

Donde el primer paréntesis representa que al inicio prefiere A y luego permanece en


A, y el segundo paréntesis representa que al inicio prefiere B pero que luego al final
prefiere A. Obteniendo así las 2 formas donde terminan comprando al final el producto
A.

También se puede hacer de la siguiente forma:


P( C ) = (A 1 A 2 ) U (B 1 A 2 )
P( C ) = P(A 1 ) * P(A 2 /A 1 ) + P(B 1 ) * P(A 2 /B 1 )

En donde:
P(A)= 0.6
P(B)= 0.4
P(A 2 /A 1 ) = 0.75
P(B 2 /A 1 )= 0.25
P(B 2 /B 1 )= 0.55
P(A 2 /B 1 )= 0.45

Por lo que quedaría de la siguiente forma:


P( C ) = (0.6) * (0.75) + (0.4) * ( 0.45) = 0.63
29

CONCLUSIONES

La probabilidad, es un tema relacionado con la matemática y estadística, eso muy


común en las ciencias económicas e ingeniería por la función que tiene para obtener
información relevante para la toma de decisiones de tipo económico.

Las probabilidades son una herramienta de vital importancia para poder realizar
análisis de diferente índole en cualquier ámbito de las ciencias, ya que su función
prácticamente es proyectar resultados para un futuro incierto, por lo tanto la
información que se obtenga será una incertidumbre, pero de utilidad para tomar
precauciones o decisiones pertinentes.
30

RECOMENDACIONES

Para aprovechar la efectividad que prestan la matemática y estadística e


implementarlo para desarrollar algún proyecto, es necesario conocer los conceptos
fundamentales y aplicarlos adecuadamente para que produzcan el resultado deseado.

Al utilizar las probabilidades para determinar una proyección en la industria, economía


o cualquier ciencia, se deberá tomar en consideración que es un resultado incierto,
dado a que existen muchos factores que podrán influir en el desarrollo del proyecto al
establecer el resultado final y real.
31

BIBLIOGRAFÍA

Hines, William W., Montgomery, Douglas C. Probabilidad y Estadística para


Ingeniería y Administración. Compañía Editorial Continental, S.A. de C.V. Impreso en
México. Año 1998.

Myers, Raymond H., Myers, Sharon L., Walpole, Ronald E., Ye, Keying. Probabilidad
Estadística para ingeniería y ciencias. Octava Edición. Impreso en Perason
Educación de México, S.A. de C.V. México de 2007.

Scheaffer, Richard L., McClave, James T. Probabilidad y Estadística para Ingeniería.


Impreso en Grupo Editorial Iberoamérica, S.A. de C.V. México de 1993.

www.fisicanet.com.ar

www.ingenieria-usac.edu.gt

www.monografías.com

www.rincondelvago.com

www.ugr.es

También podría gustarte