PyE 4

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 9

ESTADISTICA INFERENCIAL

Se ocupa, como el nombre sugiere, de hacer, a partir de una muestra aleatoria, inferencia hacia la
población de la cual se ha extraído la muestra. En la población tenemos parámetros y en la muestras
tenemos estimadores de esos parámetros.

Un estimador es una función de las variables muestrales que se utiliza para hacernos una idea sobre el
valor del parámetro objeto de estudio. Al resultado que se obtiene del estimador cuando se le introduce
la información muestral se le denomina estimación del parámetro θ.

Ahora la pregunta es la siguiente: ¿Cualquier función de las variables muestrales es un estimador del θ?
Si dicha función es susceptible de ser utilizada para estimar el parámetro en el que se tiene interés, se
denomina estimador, y si el parámetro se denota por 𝜃, su estimador se denota por 𝜃̂.

Para crear estimaciones, tendremos distintos métodos:

 Los métodos de estimación puntual que devuelven un estimador, que al reemplazaron con
valores muestrales obtenemos una estimación directa del parámetro en cuestión.
 Los métodos de estimación por intervalos, que devuelven un intervalo que con cierta
probabilidad llamada confianza, cubre o contiene al valor del parámetro poblacional.
 Las pruebas de hipótesis que veremos más adelante y nos permiten testear una hipótesis
acerca de uno o más parámetros.

Estimación puntual

Hay varios métodos de estimación puntual (Máxima Verosimilitud, el de los Momentos, el método de los
mínimos cuadrados, estimación bayesiana) que permiten crear estimadores puntuales. En este curso
nos limitaremos a utilizar una lista de estimadores conocidos, sin importar con qué método fueron
creados.

En cada caso, será importante conocer una función de probabilidad que depende del estimador y su
distribución y llamaremos estadístico. Recordemos que al ser aleatoria la muestra, lo es la estimación,
calculada con valores muestrales. Este punto es conocido para 𝑋̅ (media muestral) como estimador de
μ (la media poblacional), gracias al teorema del límite central.

Es muy difícil que un estimador sea igual al parámetro, la diferencia entre ambos es el error de
estimación. Ese error no es conocido (porque el parámetro no es conocido), pero debería poder ser
acotado.

1
Veamos otros ejemplos de parámetros y estimadores, siempre será N tamaño de la población y
n el tamaño de la muestra:

Se han detallado los casos más simples, que son los que se van a tratar, no son los únicos. Listaremos a
continuación lo que se sabe de cada uno de esos estimadores:

̅ como estimador de μ
𝑿

Partimos de una población con E(X)= μ, desconocida y Var(X)= 𝜎2 conocida. Extraemos con reposición
una muestra de tamaño n y calculamos la media muestral 𝑋̅ . Tendremos, como ya se ha demostrado
cuando se vio el TLC que 𝑋̅ sigue una distribución normal, con

¿Qué nos dicen y qué no nos dicen estas expresiones?

En primer lugar, si repetidamente se extraen muestras y calculamos en c/u 𝑋̅, el promedio de estas
medias, a largo plazo, es μ, pero no dice que en una muestra en particular 𝑋̅ = 𝜇

Por otro lado, cuando n crece, 𝑋̅ tiende a variar menos.

Por motivos teóricos, se prefiere la expresión estandarizada:

𝑋̅ − 𝜇
𝑍= 𝜎 ~ 𝑁(0,1)
⁄ 𝑛

2
Ahora bien, si 𝜎2 es desconocido, lo reemplazaremos por S, su estimador puntual. En este caso ya no
tenemos una distribución normal, sino que tenemos una distribución muy parecida, llamada t de
Student. En este caso, con n-1 grados de libertad. Así

En el caso que n sea suficientemente grande, se puede utilizar igualmente la distribución normal. Eso
pasaba principalmente cuando las distribuciones se tenían en tablas de papel que solo se consignaban
valores de grados de libertad hasta 50 aproximadamente. Al tener calculadoras virtuales que permiten
calcular t de Student para cualquier n, se opta por utilizarla.

p, proporción muestral, como estimador de P, proporción poblacional

Si se extrae una muestra con reposición de una población con tenemos


𝑝−𝑃
que Z = se distribuye normal, con media 0 y desvío 1. Recordemos que Q = 1-P
𝑃.𝑄

𝑛

En caso de no contar con P (y por lo tanto Q) para el denominador, se aproximará nuevamente con sus
𝑝−𝑃
estimadores: Z = 𝑝.𝑞
obteniendo una distribución aproximadamente normal, con media 0 y desvío 1.
√𝑛

Si el muestreo es sin reposición, se suele agregar un coeficiente de ajuste, pero en n suficientemente


𝑝−𝑃
grande es despreciable y ya no se utiliza: Z =
𝑃.𝑄 𝑁−𝑛
√ √
𝑛 𝑁−1

S2 como estimador de σ2

Notemos que presentamos dos opciones de estimador. Más adelante veremos en las propiedades de
los estimadores, que S2 es mejor que S2’.

La distribución conocida en este caso es una Chi cuadrado (o Ji cuadrado), en realidad: 𝜒2 con n-1
grados de libertad:

Propiedades de los estimadores:

Ahora, bien… ¿qué se le debe exigir a un estimador para que sea considerado un buen estimador? Ya
dijimos que cualquier función de los valores muestrales que nos sirva para entender el parámetros es
un estimador, así que para un mismo parámetro habrá más de un estimador y elegimos el mejor según

3
ciertas propiedades de los estimadores. Veremos solo las más importantes, hay otras. En general
llamaremos 𝜃 al parámetro y 𝜃̂ al estimador.

 INSESGAMIENTO
 EFICIENCIA
 CONSISTENCIA
 SUFICIENCIA

 Un estimador es insesgado si se verifica que la esperanza del estimador es el parámetro, es


decir 𝐸[𝜃̂] = 𝜃

Este punto explica el uso de . No lo veremos en este curso, pero se puede demostrar que

E( S2 ) = σ2, mientras que si dividimos por n resulta sesgado:

Más ejemplos de estimadores insesgados:

1) Tal como vimos en el teorema central del límite, E(𝑋̅) = μ.


2) E(p) = P

Si el estimador es sesgado, el sesgo es 𝐸[𝜃̂] − 𝜃

𝑛−1 2 𝑛−1−𝑛 2 𝜎2
En el ejemplo de S2’ el sesgo es 𝜎 − 𝜎2 = 𝜎 =−
𝑛 𝑛 𝑛

 Considerando todos los estimadores insesgados de un parámetro , aquel que tenga mínima
variancia es el eficiente. Si bien hay métodos para probar que la variancia es mínima, podemos
hablar de eficiencia relativa: al tener dos estimadores insesgados, el de menor varianza es mejor.

 Un estimador es consistente si converge en probabilidad al parámetro a estimar, es decir si

 Un estimador es suficiente si usa toda la información de la muestra.

4
Estimación por intervalos
La teoría Estadística presenta, entre otras herramientas, la estimación de parámetros de poblaciones
normales1 usando Intervalos de Confianza. Veamos una definición:

“Un intervalo de confianza, (IDC) es un intervalo aleatorio que cubre al parámetro a estimar con una
probabilidad 1- α llamada confianza”

Un intervalo teórico tendrá la forma: 𝑃(𝐿𝐼 < 𝜃̂ < 𝐿𝑆 ) = 1 − 𝛼

Esta confianza es por general un valor alto que podría ser 90%, 95%, 99%, o valores parecidos, siendo
α = 10%, 5% o 1% respectivamente. ¿Cómo debe interpretarse esta confianza? Por ejemplo si tenemos
el siguiente resultado:

C{ 12.87 < μ < 15.17 }=0.95

Diremos: con una confianza del 95% la media poblacional μ está entre 12.87 y 15.17. Ni bien
reemplazamos la expresión teórica de un IDC, que ya veremos, por sus valores numéricos, no podemos
seguir hablando de probabilidad sino de confianza porque como lo aleatorio es el intervalo, cuando lo
valorizamos, ya la variable aleatoria tomó un valor.

La amplitud del intervalo es la diferencia entre el límite superior, LS, y el límite inferior, LI. Lo ideal es
un intervalo con mucha confianza y pequeña amplitud, pero tal como se verá en los cálculos, si aumenta
la confianza, aumenta también la amplitud del intervalo.

Un IDC puede cubrir o no cubrir al parámetro poblacional. Si la confianza es 0.95 implica que de cada
100 intervalos que se construyan, 95 en promedio cubrirán al parámetro a estimar y 5, en promedio no
lo cubrirán. No tenemos forma de saber si el IDC obtenido es de los 95 buenos o de los 5 malos.

Para construir un IDC necesitamos una función que dependa del parámetro a estimar y de su estimador
puntual y cuya distribución sea conocida. Veremos los casos de IDC, para los estimadores puntuales ya
mencionados.

1) IDC para μ

a) Con σ conocido:

𝑋̅− 𝜇
La función conocida es 𝑍 = 𝜎 ~ 𝑁(0,1)
⁄ 𝑛

Entonces, para un nivel de confianza es 1-α sabemos que

1
Varios autores mencionan el prerrequisito (y por lo tanto lo agregan como hipótesis en los ejercicios)
que la población de base es normal. Si bien una población normal asegura resultados óptimos, se aplica la
teoría aún sin conocer la distribución.
5
Operando dentro de las llaves hasta dejar en el centro del IDC el parámetro μ, obtenemos el intervalo
buscado:

𝜎
La amplitud del IDC es 𝐿𝑆−𝐿𝐼= 2𝑍𝛼/2 . Se ve aquí que si aumentamos la confianza, 𝑍𝛼/2 aumenta y la
√𝑛

amplitud del intervalo es mayor. Habrá que considerar una “trade off” entre confianza y amplitud.
También se ve que si n crece, la amplitud disminuye. Siempre en Estadística, con una muestra mayor se
obtiene mayor precisión en las estimaciones.

Ejemplo: Se ha obtenido una muestra de 25 alumnos de la Universidad y se quiere estimar la


calificación media de los exámenes en Matemática Discreta de todos los alumnos que dieron el
examen en el último turno. Se sabe por otros cursos que la desviación típica de las puntuaciones
es de 2.01 puntos. La media de la muestra fue de 4.9.

Construir el IDC del 90 % y después el IDC del 99 % para el promedio de todos los alumnos. Compare
ambos IDC.

Sustituyendo los datos en la fórmula del intervalo, tenemos:

{4.9 - 1.645. 2.01/ √25 < 𝜇 < 4.9 - 1.645 2.01/ √25 } = 0.90 → 𝐶{4.2387 < 𝜇 < 5.5613}=0.90

Con una confianza del 90%, el promedio de todos los exámenes está entre 4.2387 y 5.5613.

Compruebe usted que el IDC del 99% es {3.8628<𝜇<5.9372}=0.99 y verifique cómo al aumentar la
confianza, aumenta la amplitud del IDC.

b) Con σ desconocido:

Al no conocer σ, lo reemplazamos por su estimador S. En este caso, la distribución conocida es

6
Con un nivel de confianza 1- α, sabemos que

Reemplazamos t en el intervalo:

Y operando dentro de las llaves hasta dejar en el centro del IDC el parámetro μ, obtenemos el intervalo
buscado:

𝑆
En este caso la amplitud del IDC es 𝐿𝑆−𝐿𝐼=2 𝑡𝛼/2 ; 𝑛−1
√𝑛

Ejemplo: Se hicieron 10 mediciones sobre la resistencia de cierto tipo de alambre. El promedio


resultó ̅
X = 10,48 ohms, y el desvío S = 1,36 ohms. Se desea obtener un intervalo de confianza
para la esperanza poblacional μ al 90 %.

Tenemos que 1 α  0.90  α  0.1  / 2  0.05 y los grados de libertad son n-1 = 9. Así t 0.05,9 1.8331
Entonces el intervalo de confianza buscado es:

Es decir es { 9,69 < 𝜇 < 11,27 }=0.90

2) IDC para la variancia σ2

Partiendo de la función , sabemos que

7
Tal como muestra el gráfico adjunto, ya no se trata de una distribución simétrica, y es siempre
positiva:

Reemplazando el valor de Chi cuadrado tenemos

y despejando, tenemos el intervalo

Ejemplo: Los siguientes datos muestran la graduación alcohólica de una muestra de 14


observaciones de los vinos FREE WINE, fabricados por una bodega local.

12.8 12.8 12.5 11.9 12.5 12.1 12.2 12.6 13.0 12.4 12.6 12.2 12.8 13.0

Construya un IDC del 95% para la variancia 𝜎2.

Tenemos: 𝑆2=0.11451 χ13; 0.975=5.009 χ13; 0.025=24.74


Reemplazando en la fórmula: {(14−1)∗0.11451 / 24.74< 𝜎2 < (14−1)∗0.11451 / 5.009}=0.95

El intervalo resulta C{0.0602 < 𝜎2< 0.2972}= 0.95

Con una confianza del 95% la variancia de la graduación alcohólica de los vinos está entre 0.0602 y
0.2972.

3) IDC para la proporción P:

p−P
Aquí volvemos a usar la distribución normal: Z = p.q
~𝑁(0,1)

n

Si el nivel de confianza es 1-α, entonces,

8
Operando dentro de las llaves hasta dejar en el centro del IDC el parámetro P, obtenemos el intervalo:

Ejemplo: En una encuesta hecha por el gobierno de una ciudad a un total de 100 personas
elegidas al azar, se obtuvo que el 55% estaba a favor de incrementar las sendas para bicicletas.
Calcular el IDC del 99% para P, proporción de personas en la ciudad que están a favor de dicho
emprendimiento.

1 α  0.99  α  0.01  / 2  0.005.

En la distribución normal, Z0,005 = 2,58. Reemplazando los datos:

C {0.55−2.58√ (0.55∗0.45/ 100) < 𝑃 < 0.55+2.58√(0.55∗0.45 / 100) } = 0.99

El intervalo resulta C{ 0.4217 < P < 0.6784 }= 0.99

También podría gustarte