6 Regressao
6 Regressao
6 Regressao
Como o MMQ
minimiza a
distância segundo
Y apenas, deve-se
ter cuidado ao
escolher as
variáveis X e Y
Uma escolha
trocada leva a
uma recta
diferente!
07-12-2009 N.Sousa, ESAC (c) 7
Estimativas do MMQ
O MMQ leva às X Y
estimativas (pontuais): x1 y1
MMQ bɶ = Sxy / Sxx
(ver p.ex. Guimarães p.50 e seg. x2 y2 →
ou Montgomery p.395-397) aɶ = y − bɶ ⋅ x
⋮ ⋮
Notação “S”: xn yn
n
Sxx = ∑ i =1 ( xi − x )2 =∑ i xi2 − n x 2
n
Syy = ∑ i =1 ( y i − y )2 =∑ i y i2 − n y 2
n
Sxy = ∑ i =1 ( xi − x )( y i − y ) =∑ i xi y i − n x y
S = σɶ =
2 2 1
∑
n
n − 2 i =1
( y i − ɶ
y i )2
=
1
n−2
S yy − ɶS
b (xy )
07-12-2009 N.Sousa, ESAC (c) 8
Interpretação dos S
Sxx Syy
Interpretação de R2: percentagem da variabilidade que é explicada
pela regressão. R2 ≈ 1: bom ajuste do modelo aos dados. R2 ≈ 0:
mau ajuste
Notar que a significância de regressão verifica se há relação linear
entre X e Y. O coeficiente de determinação verifica quanto da
relação entre Y e X pode ser explicada pelo modelo linear
R2 deve ser usado com cautela, dado que pode ser inflacionado
artificialmente adicionando termos não lineares ao modelo. Para
evitar essa inflação, usa-se por vezes um R2 ajustado
Ainda outra maneira de ver se o modelo de regressão é adequado
é fazer uma análise aos resíduos ei = y i − yɶ i
07-12-2009 N.Sousa, ESAC (c) 15
Ausência de ordenada na origem
Por vezes um modelo de regressão faz mais sentido se a = 0.
No entanto, quando estimamos pontualmente a ordenada
na origem, esta só muito raramente será zero.
No caso de um problema fazer mais sentido com a = 0:
Se os dados da amostra forem compatíveis com essa hipótese (i.e. se
o teste a = 0 vs a ≠ 0 não for rejeitado) o declive pode ser estimado
pontualmente pelo MMQ, levando ao modelo:
bɶ = ∑ i xi y i ∑i i
x 2 ɶ +E
→ Y = bX
Se os dados da amostra não forem compatíveis com essa hipótese, o
modelo linear não é adequado ao problema e terá que ser melhorado
( x − x )2
IPC : yɶ ± tn − 2 ( α2 ) ⋅ S 1 + n1 + Sxx
Residuals: ei = y i − yɶ i
1 2 3 4 5 6
0.56132 -3.07740 2.13379 1.47063 -1.10699 0.01865
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 4.56432 3.53513 1.291 0.287147
x1 6.81325 0.36473 18.680 0.000335 ***
x2 0.01222 0.59667 0.020 0.984945
--- aɶ, bɶ1, bɶ2 S / Sxi xi ETobs p -value do teste à sig. individual
SQtot
A estatística de teste da anova pode ser escrita
como função de R2 :
R2 / k
F= ~ > Fk ,n − k −1
(1 − R ) /(n − k − 1)
2
Y = a + b1 X + b2 X 2 + ⋯ + bk X k
O cálculo dos coeficientes pode ser feito pelo método
dos mínimos quadrados (funciona sempre, mas requer
software especializado), ou via...
07-12-2009 N.Sousa, ESAC (c) 29
Linearização
Uma regressão não linear pode, por vezes, ser transformada numa linear,
i.e. pode ser linearizada, mediante uma mudança de variável
X =1/ U
b
Y = a+ +E → Y = a + bU + E
X
log
Y = e a + bX + E → ln Y = a + bX + E
( X i )= Xi
Y = a + b1 X + ⋯ + bk X k → Y = a + b1 X1 + ⋯ + bk X k
Com a mudança de variável passamos a ter um modelo linear
Nem todos os modelos são linearizáveis!! Num caso particular deve-se
consultar a literatura para saber se a linearização é possível nesse caso.
Os casos acima são.
Os coeficientes a,b são depois encontrados via RLS/RLM