Trabajo Teorico Estadistica

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 10

REPÚBLICA BOLIVARIANA DE VENEZUELA

MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN SUPERIOR


UNIVERSIDAD NACIONAL EXPERIMENTAL “RÓMULO GALLEGOS”
ÁREA DE CIENCIAS DE LA SALUD
PROGRAMA DE MEDICINA
2DO AÑO-SECCIÓN 18

Trabajo Teórico

Docente Bachiller
Greidy Requena Yaudimar Albano C.I: 30.874.320
Carlos Jiménez C.I: 30.629.749
Soraya Jazpe C.I: 32.277.436
Johnderlis Martinez C.I: 31.871.573
Dayerlys Lemus C.I: 32.404.198

San Juan de los Morros, junio 2024


Introducción

Las pruebas estadísticas se emplean con la finalidad de establecer la probabilidad de que una conclusión
obtenida a partir de una muestra sea aplicable a la población de la cual se obtuvo. Sin embargo, la elección de la
prueba estadística apropiada representa un reto para los investigadores principiantes.

También las pruebas estadísticas son herramientas matemáticas para analizar datos cuantitativos generados en
un estudio de investigación . La multitud de pruebas estadísticas hace que al investigador le resulte difícil
recordar qué prueba estadística utilizar en cada condición. Hay varios puntos sobre los que es necesario
reflexionar al elegir una prueba estadística.
1 Pruebas estadísticas

Las pruebas estadísticas se emplean con la finalidad de establecer la probabilidad de que una conclusión
obtenida a partir de una muestra sea aplicable a la población de la cual se obtuvo. Sin embargo, la elección de la
prueba estadística apropiada representa un reto para los investigadores principiantes.
Cuando se analizan datos medidos por una variable cuantitativa continua, las pruebas estadísticas de estimación
y contraste frecuentemente empleadas se basan en suponer que se ha obtenido una muestra aleatoria de una
distribución de probabilidad de tipo normal o de Gauss.
Pero en muchas ocasiones esta suposición no resulta válida, y en otras la sospecha de que no sea adecuada no
resulta fácil de comprobar, por tratarse de muestras pequeñas

PRUEBAS PARAMÉTRICAS:
Las pruebas estadísticas paramétricas, como la de la “t” de Student o el análisis de la varianza (ANOVA), se
basan en que se supone una forma determinada de la distribución de valores, generalmente la distribución
normal, en la población de la que se obtiene la muestra experimental.

En contraposición de la técnica no paramétrica, las técnicas paramétricas si presuponen una distribución teórica
de probabilidad subyacente para la distribución de los datos.
Son más potentes que las no paramétricas.
Dentro de las pruebas paramétricas, las más habituales se basan en la distribución de probabilidad normal, y al
estimar los parámetros del modelo se supone que los datos constituyen una muestra aleatoria de esa
distribución, por lo que la elección del estimador y el cálculo de la precisión de la estimación, elementos básicos
para construir intervalos de confianza y contrastar hipótesis, dependen del modelo probabilístico supuesto.
Cuando un procedimiento estadístico es poco sensible a alteraciones en el modelo probabilístico supuesto, es
decir que los resultados obtenidos son aproximadamente válidos cuando éste varía, se dice que es un
procedimiento robusto tratarse de muestras pequeñas

PRUEBAS NO PARAMÉTRICAS:
Las pruebas estadísticas no paramétricas son las que, a pesar de basarse en determinadas suposiciones, no parten
de la base de que los datos analizados adoptan una distribución normal.
Técnica estadística que no presupone ninguna distribución de probabilidad teórica de la
distribución de nuestros datos.
Se denominan pruebas no paramétricas aquellas que no presuponen una distribución de probabilidad para los
datos, por ello se conocen también como de distribución libre (distribución free).
En la mayor parte de ellas los resultados estadísticos se derivan únicamente a partir de procedimientos de
ordenación y recuento, por lo que su base lógica es de fácil comprensión.
Cuando trabajamos con muestras pequeñas (n < 10) en las que se desconoce si es válido suponer la normalidad
de los datos, conviene utilizar pruebas no paramétricas, al menos para corroborar los resultados obtenidos a
partir de la utilización de la teoría basada en la normal.
En estos casos se emplea como parámetro de centralización la mediana, que es aquel punto para el que el valor
de X está el 50% de las veces por debajo y el 50% por encima.
Las pruebas no paramétricas no requieren asumir normalidad de la población y en su mayoría se basan en el
ordenamiento de los datos, la población tiene que ser continua.
El parámetro que se usa para hacer las pruebas estadísticas es la Mediana y no la Media.
Son técnicas estadísticas que no presuponen ningún modelo probabilístico teórico.
Son menos potentes que las técnicas paramétricas, aunque tienen la ventaja que se pueden aplicar más
fácilmente.

Características
 Variable aleatoria El número de éxitos (x) en ensayos
 Probabilidad de éxito, Probabilidad de obtener un éxito en un solo ensayo (p)
 Probabilidad de fracaso
 Probabilidad de obtener un fracaso en un solo ensayo (q =1 _p)
 Número de ensayos, número de ensayos independientes (a)
Manejo de tablas
La tabla estadística es una representación matemática que permite interpretar los datos recogidos sobre una
situación o fenómeno de estudio mediante su clasificación y organización en filas y columnas
Cuadro Estadístico llamado también “tabla estadística” es un arreglo de filas y columnas dispuestas
metódicamente de modo tal que se puedan presentar y organizar los datos para clasificarlos adecuadamente para
comparar e interpretar las características de dos o más variables

2Distribución binomial.
La distribución binomial es una distribución de probabilidad discreta que describe el número de éxitos en una
secuencia de “n” ensayos independientes entre sí, con una probabilidad fija “p” de ocurrencia de éxito entre los
ensayos. Un experimento que sigue una distribución binomial se conoce comúnmente como un experimento de
Bernoulli.
La fórmula para calcular la probabilidad de obtener exactamente “k” éxitos en “n” ensayos es
Donde:
- \( P(X = k) \) es la probabilidad de obtener “k” éxitos.
- \( \binom{n}{k} \) es el coeficiente binomial, también conocido como la combinación de “n” en “k”, que
calcula el número de formas posibles de elegir “k” éxitos de “n”ensayos.
- \( p \) es la probabilidad de éxito en un ensayo. sola vez, se realiza n, siendo cada ensayo independiente del
anterior. Asimismo, viene definida de la siguiente manera:
* una población de tamaño ∞.
*ea una muestra de tamaño n (número de repeticiones del experimento).
*os n experimentos realizados son independientes.
*ada ensayo produce uno de los dos únicos posibles resultados, a los que por comodidad de nomenclatura, les
llamaremos acierto (A) y su complementario Fallo (F o A).
*ea A un suceso que tiene una probabilidad p de suceder y en consecuencia, su complementario tendrá una
probabilidad 1‐p de suceder.
*número de individuos de la muestra que cumplen A.
*l conjunto de posibles valores de A es, E = {0, 1, 2, 3,4....}. Aunado a esto, para que una variable aleatoria se
considere que sigue una distribución binomial, tiene que cumplir las siguientes propiedades:
*n cada ensayo, experimento o prueba solo son posibles dos resultados (éxito o fracaso).
*a probabilidad del éxito ha de ser constante, esta se representa mediante la letra p.
*a probabilidad de fracaso ha de ser también constante, esta se representa mediante la letra q = 1-p. Es
importante fijarse que, mediante esa ecuación, sabiendo p o sabiendo q, podemos obtener la que nos falte.
*El resultado obtenido en cada experimento es independiente del anterior. Por lo tanto, lo que ocurra en cada
experimento no afecta a los siguientes.
*Los sucesos son mutuamente excluyentes, es decir, no pueden ocurrir los 2 al mismo tiempo, no se puede ser
hombre y mujer al mismo tiempo o que al lanzar una moneda salga cara y cruz al mismo tiempo. Los sucesos
son colectivamente exhaustivos, es decir, al menos uno de los 2 ha de ocurrir.
*La variable aleatoria que sigue una distribución binomial se suele representar como X~(n,p), donde n
representa el número de ensayos o experimentos y p la probabilidad de éxito. Asimismo, la fórmula para
calcular la distribución binomial es:
Donde:
*n = Número de ensayos/experimentos.
* = Número de éxitos.
* = Probabilidad de éxito.
* = Probabilidad de frac
3 Distribución Poisson.
La distribución de Poisson es una distribución de probabilidad discreta que expresa la probabilidad de que un
número dado de eventos ocurra en un intervalo fijo de tiempo o espacio si estos eventos ocurren con una tasa
media conocida y de manera independiente del tiempo transcurrido desde el último evento.
La fórmula para la distribución de Poisson es:
Donde:
- \( P(X=k) \) es la probabilidad de que ocurran exactamente **k** eventos.
- \( \lambda \) es el número promedio de eventos en el intervalo considerado.
- \( e \) es la base del logaritmo natural.
- \( k! \) es el factorial de “k”.
Por ejemplo, se podría usar la distribución de Poisson para modelar el número de llamadas que recibe una
centralita en una hora o el número de veces que un determinado evento ocurre en un día.
Es una distribución de probabilidad discreta, que tan solo conociendo los eventos y su frecuencia media de
ocurrencia, se da a conocer su probabilidad. Una de las aplicaciones comunes de la distribución de Poisson es la
predicción del número de eventos en un determinado período de tiempo, como por ejemplo, el número de
automóviles que se presenta a una zona de peaje en el intervalo de un minuto.
Asimismo, el nombre de dicha distribución proviene de su creador, Siméon-Denis Poisson (1781-1840), un
matemático y filósofo francés, que quería modelar la frecuencia de eventos durante un intervalo de tiempo
fijado. También participó en perfeccionar la ley de los grandes números. Ahora bien, dada una distribución de
Poisson con media 2, la distribución de probabilidad de densidad sería la siguiente:
Es por ello que, la función solo está definida en valores enteros de x. No todas las distribuciones de
probabilidad de densidad de Poisson tendrán el mismo aspecto, aunque mantengamos igual la muestra. Si
cambiamos la media, es decir, el parámetro del que depende la función, también cambiará la función.
En otro orden de ideas, la función de densidad de probabilidad se entiende como la probabilidad de que la
variable aleatoria X tome un valor concreto x. Es la exponencial de la media negativa multiplicada por la media
elevada a la observación y todo dividido por la factorial de la observación.
Conforme a ello, como está indicado, para conocer la probabilidad de cada observación, se debe sustituir en la
función todas las observaciones. En otras palabras, x es un vector de dimensión n que contiene todas las
observaciones de laaso (1-p).
3DISTRIBUCION NORMAL
La distribución normal, también conocida como distribución de Gauss, es un modelo matemático que describe
la forma en que los datos están distribuidos en una población. Se caracteriza por tener una forma de campana
simétrica alrededor de su media, lo que significa que la mayoría de los datos se concentran cerca de la media y
la probabilidad de que un valor esté alejado de la media disminuye a medida que nos alejamos en cualquier
dirección. Esta distribución es completamente definida por su media y su desviación estándar.
En el contexto de las pruebas estadísticas, la distribución normal es fundamental porque muchos métodos
estadísticos asumen que los datos siguen este patrón. Esto se conoce como el supuesto de normalidad. Cuando
los datos se ajustan a una distribución normal, es más fácil calcular probabilidades y realizar inferencias sobre la
población a partir de una muestra.
Las propiedades matemáticas de la distribución normal han permitido su amplio uso en áreas como la ciencia, la
ingeniería, la economía y muchas otras disciplinas. Su importancia radica en su capacidad para modelar una
amplia variedad de fenómenos naturales y su presencia en muchas situaciones prácticas.
En estadística y probabilidad se llama distribución normal, distribución de Gauss, distribución gaussiana,
distribución de Laplace-Gauss o normalidad estadística a una de las distribuciones de probabilidad de variable
continua que con más frecuencia aparece en estadística y en la teoría de probabilidades
La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado
parámetro estadístico. Esta curva se conoce como campana de Gauss y es el gráfico de una función gaussiana.
[2]
La importancia de esta distribución radica en que permite modelar numerosos fenómenos naturales, sociales y
psicológicos. [3] Mientras que los mecanismos que subyacen a gran parte de este tipo de fenómenos son
desconocidos, por la enorme cantidad de variables incontrolables que en ellos intervienen, el uso del modelo
normal puede justificarse asumiendo que cada observación se obtiene como la suma de unas pocas causas
independientes.
De hecho, la estadística descriptiva solo permite describir un fenómeno, sin explicación alguna. Para la
explicación causal es preciso el diseño experimental, de ahí que al uso de la estadística en psicología y
sociología sea conocido como método correlacional.
La distribución normal también es importante por su relación con la estimación por mínimos cuadrados, uno de
los métodos de estimación más simples y antiguos.
Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el modelo de la normal son:

caracteres morfológicos de individuos como la estatura; caracteres fisiológicos como el efecto de un fármaco;
caracteres sociológicos como el consumo de cierto producto por un mismo grupo de individuos; caracteres
psicológicos como el cociente intelectual; nivel de ruido en telecomunicaciones; errores cometidos al medir
ciertas magnitudes;etc.
La distribución normal también aparece en muchas áreas de la propia estadística. Por ejemplo, la distribución
muestra de las medias muéstrales es aproximadamente normal, cuando la distribución de la población de la cual
se extrae la muestra no es normal. [4] Además, la distribución normal maximiza la entropía entre todas las
distribuciones con media y varianza conocidas, lo cual la convierte en la elección natural de la distribución
subyacente a una lista de datos resumidos en términos de media muestra y varianza. La distribución normal es
la más extendida en estadística y muchos test estadísticos están basados en una "normalidad" más o menos
justificada de la variable aleatoria bajo estudio.
En probabilidad, la distribución normal aparece como el límite de varias distribuciones de probabilidad
continuas y discretas.
5Distribución T de Student
Teoría de pequeñas muestras
En probabilidad y estadística, la distribución-t o distribución t de Student es una distribución de probabilidad
que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la
muestra es pequeño.
A la teoría de pequeñas muestras también se le llama teoría exacta del muestreo, ya que también la podemos
utilizar con muestras aleatorias de tamaño grande.
Veremos un nuevo concepto necesario para poder entender la distribución t Student. Este concepto es "grados
de libertad". Para definir grados de libertad se hará referencia a la varianza maestral: Teoría de pequeñas
muestras En probabilidad y estadística, la distribución-t o distribución t de Student es una distribución de
probabilidad que surge del problema de estimar la media de una población normalmente distribuida cuando el
tamaño de la muestra es pequeño.
Esta fórmula está basada en n-1 grados de libertad. Esta terminología resulta del hecho de que si bien s2 está
basada en n cantidades x1 − x, x2 − x,...xn − x , éstas suman cero, así que especificar los valores de cualquier n-
1 de las cantidades determina el valor restante.
Por ejemplo, si n=4 y x1 − x = 8 ; x2 − x = − 6 y x4 − x = − 4 , entonces automáticamente tenemos x3 − x = 2 ,
así que sólo tres de las cuatro medidas de xi − x están libremente determinadas, la otra debe tomar el valor que
haga esta suma cero; es por esto que solo tenemos 3 grados de libertad. grados de libertad=número de
mediciones-1 Distribución de probabilidad t-Student Una variable aleatoria se distribuye según el modelo de
probabilidad t o T de Student con k grados de libertad, donde k es un entero positivo, si su función de densidad
es la siguiente
[4:11 p. m., 21/6/2024] DL: La gráfica de esta función de densidad es simétrica, respecto del eje de ordenadas,
con independencia del valor de k, y de forma algo semejante a la de una distribución normal:
Distribución t de Student con 10 grados de liberta
Su valor medio y varianza son
[4:11 p. m., 21/6/2024] DL: La siguiente figura presenta la gráfica de varias distribuciones t. La apariencia
general de la distribución t es similar a la de la distribución normal estándar: ambas son simétricas y un
modales, y el valor máximo de la ordenada se alcanza en la media μ = 0. Sin embargo, la distribución t tiene
colas más amplias que la normal; esto es, la probabilidad de las colas es mayor que en la distribución normal. A
medida que el número de grados de libertad tiende a infinito, la forma límite de la distribución t es la
distribución normal estándar
[4:12 p. m., 21/6/2024] DL: Propiedades de las distribuciones t
1. Cada curva t tiene forma de campana con centro en 0.
2. Cada curva t, está más dispersa que la curva normal estándar.
3. A medida que k aumenta, la dispersión de la curva t correspondiente
disminuye.
4. A medida que k∞ , la secuencia de curvas t se aproxima a la curva normal estándar La distribución de
probabilidad de t se publicó por primera vez en 1908 en un
artículo de W. S. Gosset. En esa época, Gosset era empleado de una cervecería irlandesa que desaprobaba la
publicación de investigaciones de sus empleados. Para evadir esta prohibición, publicó su trabajo en secreto
bajo el nombre de "Student". En consecuencia, la distribución t normalmente se llama distribución t de Student,
o simplemente distribución t.
Ejemplo de calibración
Se desea saber si un instrumento de medición cualquiera está calibrado, desde el punto de vista de la exactitud.
Para ello se consigue un valor patrón y se lo mide 10 veces (por ejemplo: una pesa patrón para una balanza, un
suero control para un método clínico, etc.). Suponiendo que el resultado de estas mediciones arroja una media
de 52,9 y una desviación de 3, usando un patrón de valor 50, se debe determinar si el instrumento está calibrado
y la estimación de su error sistemático, si es que se prueba su existencia (no se usan unidades para generalizar
este ejemplo).
H0:μ= 50 el instrumento está calibrado en exactitud
H1:μ≠50 no está calibrado. Hay un error sistemático
[4:12 p. m., 21/6/2024] DL: Se trata de un ensayo de dos colas donde hay k=10–1=9 grados de libertad.
De la Tabla t-Student se obtienen los valores críticos para el 95% de
t0,05,9=2,262, para el 99% de t 0,01,9 =3,25 y para un nivel del 99,9% es t0,001,9
=4,781. Lo que permite establecer las zonas de aceptación y rechazo
[4:13 p. m., 21/6/2024] DL: Mirando las zonas con los valores críticos, el valor de t cae en la de rechazo para el
95% y no alcanza para las otras. La conclusión es que se ha probado la existencia de un error sistemático con
una confianza del 95%.
[4:13 p. m., 21/6/2024] DL: Pude ver en la página del laboratorio la hoja de cálculo de la Distribución
Student, aquí puede observar como esta distribución se aproxima a la
distribución de Gauus p La estadística nos permite evaluar la validez de las afirmaciones y las conclusiones
basadas en datos. Podemos utilizar técnicas estadísticas para identificar sesgos, analizar la calidad de las
muestras y evaluar la confiabilidad de los resultados.
Las pruebas estadísticas se emplean con la finalidad de establecer la probabilidad de que una conclusión
obtenida a partir de una muestra sea aplicable a la población de la cual se obtuvo.
Permiten saber hasta qué punto la media aritmética da una buena información de la realidad estudiadara
medidas mayores a 30
6
Distribución Chi cuadrado
La distribución chi-cuadrado (χ2) es una familia de curvas de un parámetro. La distribución chi-cuadrado se
utiliza habitualmente en la comprobación de hipótesis, en particular en la prueba de bondad de ajuste de chi-
cuadrado.
La prueba de bondad de ajuste Chi-cuadrado se utiliza para comparar una muestra recogida aleatoriamente que
contiene una única variable categórica con una población mayor. Esta prueba se utiliza con mayor frecuencia
para comparar una muestra aleatoria con la población de la que se ha recogido potencialmente.
La prueba chi-cuadrado, también llamada Ji cuadrado (Χ2), se encuentra dentro de las pruebas pertenecientes a
la estadística descriptiva, concretamente la estadística descriptiva aplicada al estudio de dos variables.
Conclusión
La estadística nos permite evaluar la validez de las afirmaciones y las conclusiones basadas en datos. Podemos
utilizar técnicas estadísticas para identificar sesgos, analizar la calidad de las muestras y evaluar la confiabilidad
de los resultados.
Las pruebas estadísticas se emplean con la finalidad de establecer la probabilidad de que una conclusión
obtenida a partir de una muestra sea aplicable a la población de la cual se obtuvo.
Permiten saber hasta qué punto la media aritmética da una buena información de la realidad estudiada.

También podría gustarte