Unidad 4 Doris 4.4, 4.5, 4.6

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 18

4.

4 Comparación de 2 muestras independientes: pruebas t para las inferencias entre


2 medias
Para comparar las medias de dos muestras aleatorias procedentes de dos poblaciones
normales e independientes, se utiliza el procedimiento Prueba T para muestras
independientes, y para ello, se selecciona:

                

                        

A continuación, se abre una ventana con los siguientes campos:


Contrastar variables: donde se han de introducir las variables que se van a analizar, es
decir, aquellas variables sobre las que se va a contrastar si hay o no, diferencias de
grupos.
Variable de agrupación: aquí se debe introducir la variable que se utiliza para definir los
grupos de sujetos sobre los que se estudian las diferencias. Entonces el sistema activa el
botón definir grupos y al presionarlo aparece una ventana donde se introducen los valores
de la variable que definen los dos grupos de sujetos a comparar, o el valor de la variable
que hará de corte para definir dichos grupos. Si el valor de la variable para un individuo es
menor o igual que el valor especificado, el individuo pertenecerá al primer grupo, y en
caso contrario, al segundo.
Opciones: presionando este botón se obtiene una ventana donde se especifica igual que
en la sección anterior el nivel de confianza para el intervalo y la forma de tratar los valores
missing.

Ejemplo: Vamos a comprobar si existen diferencias significativas entre los tiempos


medios de dedicación a la docencia, para los profesores asociados y los titulares de
universidad de Profesores2.sav. Para ello, seleccionamos el procedimiento Prueba T para
muestras independientes, y elegimos la variable Tiemdoc para llevarla al campo
contrastar variables. Seguidamente seleccionamos como variable agrupación la variable
categoría, presionamos el botón definir grupos, y tecleamos un 1 en el primer grupo y un 3
en el segundo. Por último, pulsamos continuar y aceptar para ejecutar el procedimiento.
El resultado que muestra la Tabla contiene dos tablas. La primera recoge para ambos
grupos, profesores asociados y titulares de universidad, el número de casos en cada
muestra, los tiempos medios dedicados a la docencia, las desviaciones típicas y los
errores típicos de la media. La segunda tabla muestra el valor del estadístico para la
prueba de Levene sobre la igualdad de varianzas, junto con su p-valor. Este se distribuye
como una F de Snedecor y vale 0.808, mientras que su p-valor 0.373, lo que nos conduce
a aceptar que las varianzas sean iguales, ya que el p-valor es mayor que 0.05. También
aparece en la tabla el valor del estadístico para resolver el contraste de igualdad de
medias, supuesto varianzas iguales y distintas, (en ambos casos se distribuye como una t
de Student), junto con los correspondientes grados de libertad y sus p-valores. Puesto
que hemos concluido que las varianzas coinciden, fijémonos en el que se han asumido
varianzas iguales, el cual vale 8.661, y cuyo p-valor es 0, luego se rechaza que las
medias coincidan. Razonamiento que también se puede deducir del intervalo de
confianza, que no contiene el cero.

Tabla: Contraste sobre las Medias de dos Poblaciones Independientes

Prueba T Estadísticos de Grupo

Desviación Error típ. de

Categoría N Media típ. la media

Tiempo diario 1 29 251,3759 29,36731 5,4534

para la docencia 3 23 187,1000 22,5337 4,6986

Prueba de muestras independientes

Prueba de

Levene
para

la igualdad Prueba T para la igualdad de medias

de
varianzas

Error
Sig. Diferenci típico de Intervalo de
F Sig. t gl bilater a de la confianza para
al medias diferenci la diferencia
a

Superio
Inferior
r

Asumiend 0.80 0,37 8,66 49,370 79,181


Tiempo 50 0.000 64,2759 7,4209
o 8 3 1 4 3
varianzas
diario
iguales

No
8,92 49,96 49,817 78,734
para la Asumiend 0.000 64,2759 7,1983
9 1 3 5
o

docenci varianzas
a iguales

En muchos estudios, incluidos la mayoría de los ensayos clínicos, es necesario comparar


ciertas características en dos o más grupos de sujetos. Tal sería el caso, por ejemplo, si
pensamos que un tratamiento nuevo puede tener un porcentaje de mejoría mayor que
otro estándar, o cuando nos planteamos si los niños de las distintas comunidades
autónomas tienen o no la misma altura. En este artículo se analizará únicamente el
problema de la comparación de dos grupos con respecto a una variable continua. La
elección de un método de análisis apropiado en este caso dependerá de la naturaleza de
los datos y la forma en la que estos hayan sido obtenidos. Fundamentalmente, cuando se
comparan dos o más grupos de observaciones pueden darse dos tipos de diseño: aquel
en el que las observaciones se refieren a dos grupos independientes de individuos, o el
caso en el que cada serie de datos se recoge en los mismos sujetos bajo condiciones
diferentes. El tipo de metodología será distinto según el caso en el que nos encontremos.
Otro aspecto a tener en consideración será el tipo y distribución de los datos. Para grupos
independientes, los métodos paramétricos requieren que las observaciones en cada
grupo provengan de una distribución aproximadamente normal con una variabilidad
semejante, de modo que si los datos disponibles no verifican tales condiciones, puede
resultar útil una transformación1,2,3 de los mismos (aplicación del logaritmo, raíz cuadrada,
etc.) o, en todo caso, se debería recurrir a la utilización de procedimientos no
paramétricos4.
Normalmente en este tipo de análisis podremos establecer una hipótesis de partida
(hipótesis nula), que generalmente asume que el efecto de interés es nulo, por ejemplo,
que la tensión arterial es la misma en hombres y mujeres o que dos tratamientos para el
hipercolesterolemia son igualmente efectivos. Posteriormente se puede evaluar la
probabilidad de haber obtenido los datos observados si esa hipótesis es correcta. El valor
de esta probabilidad coincide con el valor-p que nos proporciona cada test estadístico, de
modo que cuanto menor sea este más improbable resulta que la hipótesis inicial se
verifique.
En un primer apartado, se presentará el test t de Student para dos muestras
independientes, introduciendo las modificaciones necesarias en el caso de que la
variabilidad de ambos grupos sea distinta. A continuación, se introducirá el test t de
Student para el caso de dos muestras dependientes.
t de Student para dos muestras independientes
Uno de los análisis estadísticos más comunes en la práctica es probablemente el utilizado
para comparar dos grupos independientes de observaciones con respecto a una variable
numérica. Como ejemplo, consideremos los datos que se muestran en la Tabla 1,
correspondientes a 75 individuos con sobrepeso sometidos a dos dietas alimenticias
distintas, de modo que se desea comparar el peso de los individuos que iniciaron cada
una de las dietas.
Como ya se ha adelantado, la aplicación de un contraste paramétrico requiere la
normalidad de las observaciones para cada uno de los grupos. La comprobación de esta
hipótesis puede realizarse tanto por métodos gráficos (por medio de histogramas,
diagramas de cajas o gráficos de normalidad) como mediante tests estadísticos 5 (test de
Kolmogorov-Smirnov, test de Shapiro-Wilks). Un número suficiente de observaciones
(digamos mayor de 30) como ocurre en el ejemplo planteado justifica, no obstante, la
utilización del mismo test. Así mismo, este tipo de metodología exigirá que la varianza en
ambos grupos de observaciones sea la misma. En primer lugar, se desarrollará el test t de
Student para el caso en el que se verifiquen ambas condiciones, discutiendo
posteriormente el modo de abordar formalmente el caso en el que las varianzas no sean
similares.
Bajo las hipótesis de normalidad e igual varianza la comparación de ambos grupos puede
realizarse en términos de un único parámetro como el valor medio (Figura 1a), de modo
que en el ejemplo planteado la hipótesis de partida será, por lo tanto:
H0: La media de peso inicial es igual en ambos grupos
Se denotará por {X1, X2,...,Xn} e {Y1,Y2,...,Ym} al peso observado en cada uno de los
sujetos sometidos a la dieta A y a la dieta B respectivamente. En general no se exigirá
que coincida el número de observaciones en cada uno de los grupos que se comparan,
de modo que en el ejemplo n=40 y m=35.
El t test para dos muestras independientes se basa en el estadístico:

                (1)

Donde e denotan el peso medio en cada uno de los grupos:

y , las cuasi varianzas muéstrales correspondientes:


Con lo cual, en este caso particular, el valor utilizado para el contraste será:

Si la hipótesis de partida es cierta el estadístico (1) seguirá una distribución t de Student


con n+m-2 grados de libertad. De ser así, el valor obtenido debería estar dentro del rango
de mayor probabilidad según esta distribución. Usualmente se toma como referencia el
rango de datos en el que se concentra el 95% de la probabilidad. El valor-p que
usualmente reportan la mayoría de paquetes estadísticos no es más que la probabilidad
de obtener, según esa distribución, un dato más extremo que el que proporciona el test.
Como ya se dijo, refleja también la probabilidad de obtener los datos observados si fuese
cierta la hipótesis inicial. Si el valor-p es muy pequeño (usualmente se considera p<0.05)
es poco probable que se cumpla la hipótesis de partida y se debería de rechazar. La
región de aceptación corresponde por lo tanto a los valores centrales de la distribución
para los que p>0.05. En el ejemplo planteado el valor-p correspondiente es de 0.425, de
modo que no existe evidencia estadística de que el peso medio en ambos grupos sea
diferente. En la Tabla 2, se determina los grados de libertad (en la primera columna) y el
valor de α (en la primera fila). El número que determina su intersección es el valor crítico
correspondiente. De este modo, si el estadístico que se obtiene toma un valor mayor se
dirá que la diferencia es significativa.
Otro modo de obtener esta misma información es mediante el cálculo de intervalos de
confianza para la diferencia de la respuesta media en ambos grupos. A mayores, el
intervalo de confianza constituye una medida de la incertidumbre con la que se estima esa
diferencia a partir de la muestra, permitiendo valorar tanto la significación estadística
como la magnitud clínica de esa diferencia 6. En el caso que nos ocupa, el intervalo de
confianza vendrá dado como:

Donde denota el valor que según la distribución t de Student con n+m-2 grados de
libertad deja a su derecha el 2.5% de los datos. En el ejemplo, el intervalo de confianza
con una seguridad del 95% para la diferencia de peso viene dado por:

Que expresa en definitiva un rango de valores entre los que se puede encontrar el valor
real de la diferencia entre los pesos de ambos grupos. Proporciona además la misma
información que obteníamos del contraste estadístico. El hecho de que el valor cero
pertenezca al intervalo indica que no se dispone de evidencia para concluir que el peso
sea distinto en ambos grupos.
A medida que el tamaño muestral aumenta, la distribución del estadístico (1) se hace más
próxima a la de una variable Normal estándar. De este modo, en algunos textos se opta
por utilizar esta distribución para realizar la comparación de medias. Aunque esta
aproximación es correcta para muestras suficientemente grandes, ambos métodos
proporcionan en este caso resultados prácticamente idénticos, por lo que resulta más
simple utilizar, independientemente del tamaño de la muestra, la misma metodología a
partir de la distribución t. El mismo planteamiento podría utilizarse en el caso de varianzas
distintas o de muestras apareadas.
 Dos muestras dependientes
Ya se ha comentado que cuando se trata de comparar dos grupos de observaciones, es
importante distinguir el caso en el que son independientes de aquel en el que los datos
están apareados. Las series dependientes surgen normalmente cuando se evalúa un
mismo dato más de una vez en cada sujeto de la muestra. También se puede encontrar
este tipo de observaciones en estudios de casos y controles donde cada caso se aparea
individualmente con un control.
Supongamos que queremos comprobar, en los datos de la Tabla 1 si realmente se
produce una pérdida de peso significativa en esos individuos, para lo que se recoge en
cada sujeto su peso antes y después de someterse a la dieta. En este tipo de análisis el
interés no se centra en la variabilidad que puede haber entre los individuos, sino en las
diferencias que se observan en un mismo sujeto entre un momento y otro. Por este
motivo, resulta intuitivo trabajar con la diferencia de ambas observaciones (en el ejemplo
será la pérdida de peso), de modo que se quiere contrastar la hipótesis:
H0: La pérdida de peso es nula frente a la alternativa de que la pérdida de peso sea
importante (es decir, distinta de cero).
La veracidad de dicha hipótesis puede ser contrastada igualmente mediante el test t de
Student. Como se ha dicho, este tipo de métodos tienen como hipótesis fundamental la
normalidad de los datos. En este caso, sin embargo, no será necesario que las
observaciones en ambos grupos provengan de poblaciones normales, sino que
únicamente se requiere verificar la normalidad de su diferencia. Denotando por la
pérdida media de peso la hipótesis de la que se parte es que:

frente a la alternativa

A partir de las observaciones muéstrales {Y1,Y2,..., Yn} e {Y1,Y2,...,Yn} en cada uno de los
grupos se calcula la diferencia de peso para cada sujeto {d1,d2,...,dn} con dj=Xj-Yj     
j=1,2,...,n.  Nótese que en este caso un requisito fundamental es que se tenga un número
igual de observaciones en ambos grupos. A partir de estos datos, el contraste se basa en
el estadístico:

o en el cálculo del 95% intervalo de confianza:


Donde denota la media de la pérdida de peso estimada a partir de la muestra:

y denota la cuasi varianza muestral de la diferencia dada por:

En nuestro ejemplo el valor del estadístico vendría dado por:

a comparar del modo habitual con la distribución t de Student con n-1=74 grados de
libertad. El intervalo de confianza para la pérdida media de peso correspondiente a una
seguridad del 95% es de (3.56;4.41), lo cual se traduce en una pérdida de peso
significativamente distinta de cero, tal y como indica el valor-p correspondiente de
p<0.001.

Figura 1. Comparación de dos poblaciones normales

a) Poblaciones normales con igual varianza y medias distintas

b) Poblaciones normales con igual y diferentes varianzas.


Figura 2. Regiones de aceptación y rechazo en el contraste de
hipótesis

Tabla 1. Datos de 75 pacientes con sobrepeso sometidos a


dos dietas alimenticias.

Dieta Peso inicial Peso final Dieta Peso inicial Peso final

A 94,07 86,59 B 88,02 84,12

A 96,79 93,08 B 88,22 86,13


A 92,15 87,85 B 103,45 101,21

A 92,30 86,83 B 82,94 79,08

A 96,50 92,70 B 89,71 86,19

A 83,11 76,80 B 94,83 91,93

A 91,16 83,40 B 81,93 78,97

A 90,81 86,74 B 83,41 78,89

A 81,37 77,67 B 73,59 69,76

A 89,81 85,70 B 108,47 104,20

A 84,92 79,96 B 72,67 70,01

A 84,43 79,80 B 96,84 93,66

A 86,33 81,15 B 88,48 87,00

A 87,60 81,92 B 89,57 87,24

A 81,08 76,32 B 85,22 82,09

A 92,07 90,20 B 103,76 102,24

A 81,14 73,34 B 87,84 84,66

A 96,87 93,58 B 91,50 88,95

A 99,59 92,36 B 93,04 88,73

A 83,90 77,23 B 92,14 88,07

A 89,41 85,45 B 85,26 81,36

A 85,31 84,59 B 89,42 86,64

A 89,25 84,89 B 92,42 88,99

A 93,20 93,10 B 93,13 89,73

A 89,17 86,87 B 80,86 77,81

A 93,51 86,36 B 88,75 85,93

A 88,85 83,24 B 95,02 91,90

A 88,40 81,20 B 92,29 91,28


A 82,45 77,18 B 89,43 87,22

A 96,47 88,61 B 93,32 89,77

A 99,48 94,67 B 92,88 89,38

A 99,95 93,87 B 89,88 88,00

A 100,05 94,15 B 82,25 80,81

A 87,33 82,17 B 88,99 86,87

A 87,61 86,01 B 82,07 79,74

A 89,28 83,78      

A 89,72 83,56      

A 95,57 89,58      

A 97,71 91,35      

A 98,73 97,82      

[CITATION Gen
\l 2058 ]

4.5 Prueba de fisher para varianzas y de igualdad de las varianzas de dos


poblaciones normales.
La necesidad de disponer de métodos estadísticos para comparar las varianzas de dos
poblaciones es evidente a partir del análisis de una sola población. Frecuentemente se
desea comparar la precisión de un instrumento de medición con la de otro, la estabilidad
de un proceso de manufactura con la de otro o hasta la forma en que varía el
procedimiento para calificar de un profesor universitario con la de otro.

Intuitivamente, podríamos comparar las varianzas de dos poblaciones, y ,


utilizando la razón de las varianzas muestrales s 21/s22. Si s21/s22 es casi igual a 1, se tendrá

poca evidencia para indicar que y no son iguales. Por otra parte, un valor muy
grande o muy pequeño para s21/s22, proporcionará evidencia de una diferencia en las
varianzas de las poblaciones.
La variable aleatoria F se define como el cociente de dos variables aleatorias ji-cuadrada
independientes, cada una dividida entre sus respectivos grados de libertad. Esto es,
Donde U y V son variables aleatorias ji-cuadrada independientes con grados de libertad
 y  respectivamente.
Sean U y V dos variables aleatorias independientes que tienen distribución ji cuadradas

con grados de libertad, respectivamente. Entonces la distribución de la variable

aleatoria está dada por:

y se dice que sigue la distribución F con grados de libertad en el numerador y


grados de libertad en el denominador.
La media y la varianza de la distribución F son:

para

para
 
La variable aleatoria F es no negativa, y la distribución tiene un sesgo hacia la derecha.
La distribución F tiene una apariencia muy similar a la distribución ji-cuadrada; sin

embargo, se encuentra centrada respecto a 1, y los dos parámetros proporcionan


una flexibilidad adicional con respecto a la forma de la distribución.
Si s12 y s22 son las varianzas muéstrales independientes de tamaño n 1 y n2 tomadas de
 
poblaciones normales con varianzas  y  , respectivamente, entonces:
Para manejar las tablas de Fisher del libro de Introducción a la Inferencia Estadística del
autor Güenther, se tendrá que buscar primero los grados de libertad dos para luego
localizar el área correspondiente, relacionándola con los grados de libertad uno, para
calcular el valor de F.
Las tablas tienen la siguiente estructura:

P 1 2 3 ……. ….. 500 …

6 0.0005  

  0.001  

  0.005  

  .  

  .  

  0.9995 30.4

El valor de 30.4 es el correspondiente a una Fisher que tiene 3 grados de libertad uno y 6
grados de libertad dos con un área de cero a Fisher de 0.995. Si lo vemos gráficamente:

Como nos podemos imaginar existen varias curvas Fisher, ya que ahora su forma
depende de dos variables que son los grados de libertad.
 Ejemplos:
1. Encontrar el valor de F, en cada uno de los siguientes casos:

a. El área a la derecha de F, es de 0.25 con =4 y =9.

b. El área a la izquierda de F, es de 0.95 con =15 y =10.

c. El área a la derecha de F es de 0.95 con con =6 y =8.

d. El área a la izquierda de F, es de 0.10 con con =24 y


=24
Solución:
Como el área que da la tabla es de cero a Fisher, se tiene que localizar primero los
grados de libertad dos que son 9, luego un área de 0.75 con 4 grados de libertad uno.

En este caso se puede buscar el área de 0.95 directamente en la tabla con sus
respectivos grados de libertad.

Se tiene que buscar en la tabla un área de 0.05, puesto que nos piden un área a la
derecha de F de 0.95.
Se busca directamente el área de 0.10, con sus respectivos grados de libertad.

Si s12 y s22 son las varianzas muéstrales de muestras aleatorias independientes de


tamaños n1=10 y n2 =20, tomadas de poblaciones normales que tienen las mismas
varianzas, encuentre P(s12/s22 2.42).
Solución:
Primero se establecen los grados de libertad. Como en el numerador está la población
uno y en el denominador la población dos, entonces los grados de libertad uno equivale a
10-1=9 y los grados de libertad dos a 20-1=19.
Se procede a ir a la tabla a buscar los grados de libertad dos que son 19 y se observa que
no están, por lo tanto, se tiene que interpolar entre 15 y 20 grados de libertad, buscando
el valor de fisher que quedaría:

Este valor de 2.42 se busca en la columna de 9 grados de libertad uno, con 15 grados de
libertad dos, y se encuentra el siguiente:

Área

0.90 2.09

0.95 2.59

Al interpolar entre estos dos valores nos queda un área de 0.933.


Se procede a hacer lo mismo, pero con 20 grados de libertad dos:

Área
Área

15 0.933
0.95 2.39

20 0.9516
0.975 2.84

Al interpolar entre estos dos valores nos queda un área de 0.9516.


Ahora ya se tienen las dos áreas referentes a los grados de libertad dos, por lo que se
interpolará para ver cuánto les corresponde a los grados libertad dos con un valor de 19.
Al interpolar nos queda que para 9 grados de libertad uno y 19 grados de libertad dos con
un valor de Fisher de 2.42 el área a la izquierda es de 0.9478.

Si s12 y s22 representan las varianzas de las muestras aleatorias independientes de


2
tamaño n1= 25 y n2 = 31, tomadas de poblaciones normales con varianzas 1 =10 y
2
2 = 15, respectivamente, encuentre P(s12/s22 > 1.26).
Solución:
Calcular el valor de Fisher:

Luego se va a la tabla de Fisher a buscar 30 grados de libertad 2 con 24 grados de


libertad uno. Cuando se esté en esta posición se busca adentro de la tabla el valor de
Fisher de 1.89. Al localizarlo y ver a la izquierda de este valor se obtiene un área de 0.95,
pero esta área correspondería a la probabilidad de que las relaciones de varianzas
muéstrales fueran menor a 1.26, por lo que se calcula su complemento que sería 0.05,
siendo esta la probabilidad de que s12/s22 > 1.26.
Intervalo de Confianza para el Cociente de Varianzas de Dos Distribuciones Normales
Supóngase que se tienen dos poblaciones normales e independientes con varianzas
2 2
desconocidas  y 2 , respectivamente. De este par de poblaciones, se tienen
disponibles dos muestras aleatorias de tamaños n1 y n2, respectivamente, sean s12 y s22
las dos varianzas muestrales. Se desea conocer un intervalo de confianza del 100(
2 2
) por ciento para el cociente de las dos varianzas, 1 / 2 .
Para construir el intervalo de confianza para el cociente de dos varianzas poblacionales,
se coloca la varianza muestral mayor en el numerador del estadístico F.
Ejemplos:
Un fabricante de automóviles pone a prueba dos nuevos métodos de ensamblaje de
motores respecto al tiempo en minutos. Los resultados se muestran en la tabla:

Método 1 Método 2

n1 = 31 n2 = 25

s12 = 50 s22 = 24

2 2
Construya un intervalo de confianza del 90% para 1 / 2 .
Solución:
Por la recomendación de que la varianza muestral mayor va en el numerador se tiene la
siguiente fórmula:

al despejar: .
F toma dos valores dependiendo del nivel de confianza y de los grados de libertad. En
este caso los grados de libertad uno vale 30 y los grados de libertad dos 24.
1.

2. y

[CITATION
Gén12 \l 2058 ]

4.6 Comparaciones de dos muestras pareadas


Una de las hipótesis sobre las que habitualmente se fundamentan las pruebas
estadísticas de comparación es que las observaciones pertenecientes a cada una de las
muestras son independientes entre sí, no guardan relación; siendo precisamente ese uno
de los objetivos de la aleatorización (elección aleatoria de los sujetos o unidades de
observación). Sin embargo, la falta de independencia entre las observaciones de los
grupos puede ser una característica del diseño del estudio para buscar fundamentalmente
una mayor eficiencia del contraste estadístico al disminuir la variabilidad. En otras
ocasiones con este tipo de diseño pareado lo que se busca es dar una mayor validez a las
inferencias obtenidas, controlando o eliminando la influencia de variables extrañas cuyo
efecto ya es conocido o sospechado, y no se desea que intervenga en el estudio actual
pudiendo enmascarar el efecto del tratamiento o de la variable de interés.
Las muestras apareadas se obtienen usualmente como distintas observaciones realizadas
sobre los mismos individuos. Un ejemplo de observaciones pareadas consiste en
considerar a un conjunto de n personas a las que se le aplica un tratamiento médico y se
mide por ejemplo el nivel de insulina en la sangre antes (X) y después del mismo (Y). En
este ejemplo no es posible considerar aX eY como variables independientes ya que va a
existir una dependencia clara entre las dos variables.

[CITATION
Gén12 \l 2058 ]

Bibliografía
Acosta, G. (21 de 02 de 2012). UNIDAD IV PRUEBAS DE HIPOTESIS CON DOS
MUESTRAS Y VARIAS MUESTRAS DE DATOS NUMÉRICOS. Obtenido de
Scribd: https://es.scribd.com/doc/82253086/UNIDAD-IV-PRUEBAS-DE-
HIPOTESIS-CON-DOS-MUESTRAS-Y-VARIAS-MUESTRAS-DE-DATOS-
NUMERICOS
Curiel, G. R. (2013). Estadistica Inferencial para Profesionales de la Salud. Jalisco,
México: D.R. ©UNIVERSIDAD DE GUADALAJARA.

También podría gustarte