1.4 Rosas Martinez Frida Vanessa

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 6

ROSAS MARTINEZ FRIDA VANESSA

IGEA ESTADISTICA INFERENCIAL II

INSTITUTO TECNOLÓGICO DE MATEHUALA


INGENIERÍA EN GESTIÓN EMPRESARIAL

ESTADÍSTICA INFERENCIAL II

UNIDAD 1- REGRESIÓN LINEAL SIMPLE


Y CORRELACIÓN

TEMA 1.4- MEDIDAS DE


VARIACIÓN.

Rosas Martínez Frida Vanessa

5TO SEMESTRE, GPO. A

Matehuala S.L.P. a 02 DE AGOSTO DEL 2020


ROSAS MARTINEZ FRIDA VANESSA
IGEA ESTADISTICA INFERENCIAL II

TEMA 1.4- MEDIDAS DE VARIACIÓN


Con frecuencia el problema de analizar la calidad de la recta de regresión estimada se
maneja por medio del método del análisis de varianza (ANOVA), que es un procedimiento
mediante el cual la variación total de la variable dependiente se subdivide en componentes
significativos, que luego se observan y se tratan en forma sistemática. El análisis de varianza
es un recurso poderoso que se emplea en muchas situaciones.
Suponga que tenemos n puntos de datos experimentales en la forma usual (xi, yi) y que se
estima la recta de regresión. Para la estimación de σ 2 se estableció la identidad
Syy = b1 Sxy + SCE.
Una formulación alternativa y quizá más informativa es la siguiente:

Logramos hacer una partición de la suma total de los cuadrados corregida de y en dos
componentes que deberían proporcionar un significado particular para el experimentador.
Esta partición se debería indicar en forma simbólica como
STCC = SCR + SCE.
El primer componente de la derecha, SCR, se denomina suma de cuadrados de la regresión
y refleja la cantidad de variación de los valores y que se explica con el modelo, que en este
caso es la línea recta postulada. El segundo componente es la ya conocida suma de
cuadrados del error, que refleja la variación alrededor de la recta de regresión.
Suponga que nos interesa probar la hipótesis:

donde la hipótesis nula en esencia dice que el modelo es μY|x = β0 ; es decir, la variación
en los resultados Y debida a las fluctuaciones de probabilidad o aleatorias que son
independientes de los valores de x.
En las condiciones de esta hipótesis nula se puede demostrar que SCR/σ 2, y SCE/σ 2 son
valores de variables chicuadradas independientes con 1 y n – 2 grados de libertad,
respectivamente y, se sigue que STCC/σ 2 también es un valor de una variable chi cuadrada
con n – 1 grados de libertad. Para probar la hipótesis anterior calculamos

y rechazamos H0 al nivel de significancia α cuando f > f α (1, n − 2). Por lo general los cálculos
se resumen mediante las medias de una tabla de análisis de varianza. Es costumbre referirse
ROSAS MARTINEZ FRIDA VANESSA
IGEA ESTADISTICA INFERENCIAL II

a las distintas sumas de los cuadrados divididos entre sus respectivos grados de libertad
como cuadrados medios.

Cuando se rechaza la hipótesis nula, es decir, cuando el estadístico F calculado excede al


valor crítico f α(1, n – 2), concluimos que hay una cantidad significativa de variación en la
respuesta justificada por el modelo postulado, que es la función de la línea recta. Si el
estadístico F está en la región de no rechazo, se concluye que los datos no reflejan evidencia
suficiente para apoyar el modelo que se postula.
ROSAS MARTINEZ FRIDA VANESSA
IGEA ESTADISTICA INFERENCIAL II

EJEMPLO
Se realizan observaciones del rendimiento de una reacción química a diferentes
temperaturas y se registran de la siguiente manera

Y (%) X (°C) Y (%) X(°C)


77.4 150 88.9 250
76.7 150 89.2 250
78.2 150 89.7 250
84.1 200 94.8 300
84.5 200 94.7 300
83.7 200 95.9 300

Estime el modelo lineal µy/x = a +βx y pruebe la que falta dela juste. Solución= se tiene n 1 =
n2 = n3 = n4 = 3. Por lo tanto,

Los coeficientes de regresión son entonces: b = 4370 / 37,500= 0.1165 a= 86.4833-


(0.1165) (225)= 60.2708. De aquí que a línea de regresión estimada es: Ў= 60.2708+0.1165x.
para probar la falta de ajuste, se procede de la manera acostumbrada
1. Ho: la regresión es lineal en x
2. H1: la represión no es lineal en x
3. Se selecciona el nivel de significancia de 0.05
ROSAS MARTINEZ FRIDA VANESSA
IGEA ESTADISTICA INFERENCIAL II

4. Región criticada: f > 4.46 con 2 y 8 grados de libertad


5. Cálculos: se tienen: SST= Syy = 513.1167
SSR= Bsxy= (0.1165) (4370)= 509.1050
SSE=Sxy- bSxy= 4.0117.
Para calcular la suma de cuadrados del error puro, se escribe primero:

X1= 150 T1= 232.3


X2= 200 T2=252.3
X3= 250 T3= 267.8
X4= 300 T4=285.4
Por lo tanto, SSE (puro)= 90,265.52 – 232.32+252.32+ 267.82+285.42= 2.66
3

Estos resultados y los cálculos restantes se presentan en la tabla 9.4


6. Conclusión: la participación de la valoración total en esta forma revela una
valoración significativa explicada por el momento lineal y una cantidad insignificante
de variación debida a la falta de ajuste. Entonces, los datos experimentales no
parecen sugerir la necesidad de considerar términos más altos a los de primer orden
en el modelo y no se rechaza l hipótesis nula.

Análisis de variancia para los datos rendimiento temperatura

Fuente de Suma de Grados de Cuadrado F calculada Valores p


variación cuadrados libertad medio
Regresión 509.1050 1 509.1050 1531.60
Error 4.0117 10 < 0.0001
Falta de
ajuste 1.3517 2 0.6758 2.03 0.19
Error puro 2.6600 8 0.3325

Total 513.1167 11
ROSAS MARTINEZ FRIDA VANESSA
IGEA ESTADISTICA INFERENCIAL II

Fuentes Consultadas:

Desconocido. (19 de abril de 2015). Machine Learning con R. Obtenido de http://apuntes-


r.blogspot.com/2015/04/supuestos-en-regresion-lineal.html

Myers, W. M. (02 de 10 de 2012). Probabilidad y Estadistica para ingenieria y ciencias (Vol. 8).
Pearson. Obtenido de
file:///E:/TECMATEHUALA/5TO%20SEMESTRE/ESTADISTICA%20INFERENCIAL%20II/8va-
probabilidad-y-estadistica-para-ingenier-walpole_8.pdf

También podría gustarte