Pertemuan 5 Probabilitas

Unduh sebagai pdf atau txt
Unduh sebagai pdf atau txt
Anda di halaman 1dari 14

ASUMSI KLASIK REGRESI LINIER BERGANDA

Seperti halnya uji parametris lainnya, maka regresi linear


juga mempunyai syarat atau asumsi klasik yang harus terpenuhi.
Agar model prediksi yang dihasilkan nantinya bersifat BLUE (Best
Linear Unbiased Estimation).
Asumsi klasik pada regresi linear berganda antara lain:
Data interval atau rasio, linearitas, normalitas pada residual, non
outlier atau tanpa adanya data pencilan (data extreme),
homoskedastisitas (Non Heteroskedastisitas), non
multikolinearitas dan non autokorelasi.
LINEARITAS

Ada hubungan linear antara variable bebas dengan variable terikat.


Asumsi linearitas diuji dengan uji linearitas regresi, misalnya dengan
kurva estimasi.

Dengan kurva estimasi kita bisa tentukan ada hubungan linear atau
tidak dengan melihat nilai p value linearitas. Jika p value < 0,05 maka
terdapat hubungan yang linear antara predictor dan response.
Normalitas Residual

Residual adalah beda antara y dengan y prediksi. Y adalah variable


terikat, sedangkan y prediksi adalah Y hasil persamaan regresi yang dibuat.
Sehingga residual dibangun dengan rumus: y – y prediksi.
Asumsi normalitas pada regresi linier berganda adalah pada residualnya,
bukan pada data per variabelnya.
.
Berikut penjelasan uji normalitas dengan menggunakan Grafik histogram normal
p-p plot, One Sample Kolmogorov Smirnov dan uji Shapiro-wilk :
1. Grafik histogram normal p-p plot of regression standarized residual.
Dengan ketentuan : Distribusi yang normal akan membentuk suatu garis
lurus diagonal. Jika distribusi data residual normal, maka garis yang
menggambarkan data residual akan mengikuti garis diagonalnya, data yang
normal akan memberikan nilai ekstrim rendah dan ekstrim tinggi yang
sedikit dan kebanyakan mengumpul ditengah. Jika gambar membentuk garis
lurus diagonal dan titik – titik menyebar di sekitar garis diagonal serta
mengikuti arah garis diagonalnya. Sehingga, hal tersebut dapat dikatakan
bahwa residual telah terdistribuasi dengan normal
2. One Sample Kolmogorov Smirnov :
Kriteria :
Ketentuan yang harus dipenuhi jika melakukan uji One Sample Kolmogorov-Smirnov yaitu,
jika nilai signifikansi > 0,05 maka data yang digunakan dalam penelitian memiliki distribusi
yang normal. Namun, kebalikannya, jika nilai signifikansi < 0,05 maka data yang digunakan
tidak memiliki distribusi yang normal. Jika nilai di atas 0,05 maka distribusi data dinyatakan
memenuhi asumsi normalitas, dan jika nilai di bawah 0,05 maka diinterpretasikan sebagai
tidak normal.

3. Uji Shapiro-wilk.
Kriteria pengambilan keputusan dari uji Shapiro-wilk adalah sebagai berikut : Apabila nilai
signifikansi > 0,05 , maka distribusi data memenuhi asumsi normalitas.
Apabila nilai signifikansi < 0,05 , maka distribusi data tidak memenuhi asumsi normalitas
Non Outlier

Outlier disebut dengan data pencilan atau data yang


nilainya extreme atau lain dari pada yang lainnya. Batasan
outlier atau tidak bisa dilihat dari nilai absolut studentized
residual. Jika absolut studentized residual > 3 maka sampel
atau observasi yang dimaksud menjadi outlier.
Homoskedastisitas

Homoskedastisitas adalah sebuah kondisi dimana varians dari error bersifat


konstan atau tetap. Dengan kata lain bahwa varians dari error bersifat identic
untuk setiap pengamatan.
Kebalikan dari homoskedastisitas adalah heteroskedastisitas. Model regresi
linear yang baik adalah model yang bebas dari kondisi heteroskedastisitas.
Untuk menguji homoskedastisitas pada regresi linear, dapat digunakan uji
homoskedastisitas dari glejser, uji park, uji white test, spearman
heteroskedasitas.
Jika titik-titik data menyebar di atas dan di bawah titik 0 (nol) pada
sumbu Y dan X serta tidak membentuk pola tertentu seperti zig-zag
atau menumpuk, maka dapat disimpulkan bahwa tidak terjadi
gejala heteroskedastisitas.
Multikolinearitas

Multikolinearitas adalah keadaan dimana terdapat interkorelasi atau korelasi


kuat antar variable bebas di dalam model.

Model regresi yang baik tidak terjadi multikolinearitas

Jika nilai VIF < 10 atau nilai Tolerance > 0,01, maka dinyatakan tidak terjadi
multikolinearitas.
Jika nilai VIF > 10 atau nilai Tolerance < 0,01, maka dinyatakan terjadi
multikolinearitas.
Jika koefisien korelasi masing-masing variabel bebas > 0,8 maka terjadi
multikolinearitas. Tetapi jika koefisien korelasi masing-masing variabel bebas <
0,8 maka tidak terjadi multikolinearitas.

Asumsi multikolinearitas hanya ada dalam regresi linear berganda dan tidak ada
pada regresi linear sederhana. Sebab pada regresi linear berganda ada lebih
dari satu variabel bebas, sedangkan pada regresi linear sederhana hanya ada
satu variable bebas.
Jika Anda menggunakan Tolerance, maka nilainya mesti harus lebih besar dari 0.1.
Sementara itu, jika menggunakan VIF, maka nilainya mesti harus lebih kecil dari 10.
Kesimpulannya: pada contoh ini, tidak terjadi korelasi yang sangat kuat antara setiap
variabel bebas (independen).
Non Autokorelasi

Autokorelasi dapat diartikan bahwa terdapat korelasi antar waktu. Sehingga bisa
diartikan dengan mudah bahwa autokorelasi ini sering terjadi pada regresi linear
dengan data time series atau runtun waktu. Dan jarang sekali terjadi pada data cross
section.

Sedangkan data cross section, misalnya data hasil dari kuesioner yang disebarkan
pada semua siswa sebuah kelas, dimana hanya diukur satu kali saja. Uji autokorelasi
ini bisa diuji dengan menggunakan nilai Durbin Watson (DW) dan run test. Jika
menggunakan uji Durbin Watson, dikatakan tidak ada autokorelasi jika nilai DW
hitung > Batas atas DW table dan (4 – DW Hitung) > Batas atas DW Tabel.
Berdasarkan Tabel DW dengan n=71 dan jumlah variabel bebas=2, maka nilai dl dan
du berturut-turut sebesar 1.58648, dan 1.64352.
Dengan demikian, du < DW < 4-du yaitu sebesar 1.64352 < 2.126 <
2.35648. Sehingga dapat disimpulkan tidak terjadi gejala autorkorelasi.
TERIMA KASIH

Anda mungkin juga menyukai