Makalah Ekonometrika 3MA

Unduh sebagai docx, pdf, atau txt
Unduh sebagai docx, pdf, atau txt
Anda di halaman 1dari 11

MAKALAH

EKONOMETRIKA

REGRESI LINEAR BERGANDA

Dosen Pengampu: Dr. Muhammad Firdaus, S.P.,M.M.,M.P,CIQaR

Disusun oleh:

Nabila Maudi Lestari (21030180)

Deandra Lintang A L (21030183)

Citra Rahma Dewi (21030185)

PROGRAM STUDI MANAJEMEN

INSTITUT TEKNOLOGI DAN SAINS MANDALA

JEMBER

GENAP 2021/2022
KATA PENGANTAR

Assalamualaikum Wr.Wb

Puji syukur senantiasa kita panjatkan kepada ALLAH SWT yang telah memberikan limpahan
rahmat , taufik dan hidayah –Nya sehingga kami dapat menyelesaikan makalah ini. Shalawat
serta salam tak lupa kita curahkan kepada Nabi Muhammad SAW yang telah menunjukkan
jalan kebaikan dan kebenaran di dunia dan akhirat.

Adapun judul makalah ini adalah “ Regresi Linear Berganda “ . Type equation here .Makalah
ini disusun guna memenuhi tugas mata kuliah EKONOMETRIKA dan juga khalayak ramai
sebagai bahan penambah ilmu pengetahuan serta informasi yang sangat bermanfaat.

Makalah ini di susun dengan kemampuankami semaksimal mungkin. Namun, kami


menyadari bahwa dalampenyusunan makalah ini tentu tidaklah sempurna dan masih banyak
kesalahan serta kekurangan.

Maka dari itu kami sebagai penyusun makalah ini mohon kritik, saran, dan pesan semua yang
membaca makalah ini terutama dosen mata kuliah Ekonometrika yang kami harapkan sebagai
bahan koreksi untuk kami.

Wassalamualaikum Wr.Wb

Jember,
DAFTAR ISI
BAB 1

PENDAHULUAN

1.1 LATAR BELAKANG


Analisis regresi merupakan salah satu bagian statistika yang banyak aplikasinya.
Analisis regresi berguna bagi peneliti untuk mengetahui hubungan atau pengaruh
beberapa variabel bebas terhadap variabel terikat, bahkan digunakan untuk meramalkan
pada kondisi berikutnya.

Dalam regresi linear sederhana,metode yang bisa digunakan dalam mengestimasi


parameter regresi adalah metode kuadrat terkecil atau Ordinary least squares (OLS).
Konsep metode ini adalah untuk mngestimasi parameter dengan memilih garis regresi yag
terdekat dengan garis dari semua data. Secara matematika penentu parameter regresi ini
dengan cara meminimumkan jumlah kuadrat dari residualnya. Regresi yang terdiri dari
satu variabel bebas (predictor) dan satu variabel terikat (Response/Criterion) di sebut
regresi linear berganda.

Analisis regresi linier berganda mempunyai lebih dari satu variabel bebas,sering
menimbbulkan masalah karena terjadinya hubungan kuat dua variabel bebasnya yang
mengakibatkan terjadinya kolenieritas ganda (multikolonierty). Gejala ini menimbulkan
masalah dalam pemodelan regresi. Kolerasi yang sangat tinggi akan menghasilkan
penaksiran yang berbias,tidak stabil dan mungkin jauh dari nilai sasaran sehingga alat
yang di hasilkan menjadi besar dan variansi parameternya semakin tak hingga. Metode
kuadrat terkecil akan memberikan efek dari kolenieritas yang tingginya nilai koefisien
determinasi tetapi tidak diikuti dengan hasil uji coba hipotesis yang signifikan.

Sebelum menarik sempel dari suatu populasi terkadang di peroleh informasi yang
mengenai parameter yang akan diestimasi. Jika informasi tersebut ingin dimasukkan
dalam analisis data, maka estimasi parameter regresi dengan metode kuadrat terkeciltidak
memungkinkan untukmemasukkan informasi tersebut. Oleh karena itu, diperlukan
metode bayesien untuk menyelesaikan permasalahan tersebut.
1.2 RUMUSAN MASALAH

1.3 TUJUAN
Adapun tujuan di tuliskannya masalah ini, diantaranya :
1. Mengetahui apa yang dimaksud dengan analisis regresi
2. Mengetahui penjelasan tentang regresi linier berganda
3. Mengetahui sistematika regresi linear berganda
BAB II
PEMBAHASAN

2.1 Ordinary Least Squere (OLS)

Regresi linear berganda ingin menguji pengaruh dua atau lebih variable
independen (explanatory) terhadap satu variable dependen dan umumnya dinyatakan
dalam persamaan sebgai berikut :

Y= α +β1X1 + β2X2 + β3X3 +μ

Model estimasi yang di gunakan untuk membentuk persamaan regresi diatas adalah
metode ordinary least squere (OLS) yang di perkenalkan oleh seorang ahli matematika
dari Jerman Carl Friedrich Gauss. Seperti diketahui tujuan dari analisis regresi adalah
tidak hanya mengestimasi nilai β1 dan β2, tetapi juga ingin menarik inferensi nilai yang
benar dari β1 dan β2. Misalkan kita ingin mengatahui seberapa dekat nilai β1 dan β2
berdasarkan sampel terhadap nilai sesungguhnya β1 dan β2 berdasarkan populasinya.
Dengan demikian kita tidak hanya menspesifikasi bentuk model fungsional ,tetapi kita
juga harus membuat asumsi bagaimana nilai Y diperoleh. Seperti terlihat pada persamaan
diatas nilai Y tergantung dari kedua nilai X dan μ. Jadi untuk menaksir nilai Y , kita harus
mengetahui asumsi tentang nilai X dan μ diperoleh. Oleh sebab itu mengetahui asumsi
tentang nilai X dan nilai kesalahan μ sangatlah penting untuk mengestimasi dan
interpretasi terhadap regresi.

2.2 Classical Linear Regression Model (CLRM)

Menurut Gujarati (2003) ada 11 asumsi yang mendasari model regresi linear
klasik dengan menggunakan metode ordinary least squere (OLS) atau yang di kenal
dengan asumsi klasik.

a.Model regresi linear artinya linear dalam parameer seperti dalam persamaan dibawah
ini:

Yi = α + β1Xi + μi

b. Nilai X diasumsikan non-stokastik :artinya nilai X dianggap tetap dalam sampel yang
berulang
c. Nilai rata rata kesalahan μi adalah nol, atau E (μi | ιx ) = 0
d. Homokedastisitas : artinya variance kesalahan sama untuk setiap periode (Homo=
sama , Skedastisitas = sebaran ) dan dinyatakan dalam bentuk matematis Var (μi | ιx)
=σ²
e. Tidak ada autokorelasi antar kesalahan (antara μi dan μjntidak ada korelasi ) atau
secara sistematis Cov (μi ,μj | ιx,ιx ¿ = 0
f. Antara μi dan ιχ saling bebas,sehingga Cov (μi |ιχ ¿=0
g. Umlah observasi, n harus lebih besar dari pada jumlah para meter yang diestimasi
(jumlah variabel bebas)
h. Adanya variabilitas dalam nilai ιχ , artinya nilai ιχ harus berbeda.
i. Model regresi telah di spesifikasi secara benar. Dengan kata laintidak ada bias
(kesalahan) spesifikasi dalam model yang di gunakan dalam analisis empirik.
j. Tidak ada multikolineritas yang sempurna antara variabel bebas.
k. Nilai kesalahan μi terdistribusi secara normal atau μi N (0 , σ 2)

Apabila kesebelas asumsi klasik terpenuhi, maka menurut teorema Gauss Markov
metode estimasi ordinary least square akan menghasilkan unbiased linear estimator
dan varian minimum atau sering disebut dengan BLUE (Best Linear Unbiased
Estimator).

2.3 Menilai Goodness of Fit Suatu Model Regresi

Ketepatan fungsi regresi sampel dalam menaksir nilai aktual dapat di ukur dari
Goodness of fit. Secara statistik dapat diukur dari nilai determinasi, nilai statistik F
dan nilai statistik t. Perhitungan statistik disebut signifikan secara statistik apabila
nilai uji statistiknya berada dalam daerah kritis (daerah dimana H0 ditolak).
Sebaliknya disebut tidak signifikan bila nilai uji statistiknya berada dalam daerah
dimana H0 tidak dapat ditolak.

a. Koefisien Desterminasi (R²)


Koefisien desterminasi pada intinya mengukur seberapa jauh
kemampuan model dalam menerangkan variasi variabel dependen. Nilai
koefisien desterminasi adalah antara nol dan satu. Nilai R² yang terkecil
berarti memiliki kemampuan variabel variabel independen dalam menjelaskan
variasi variabel dependen amat terbatas. Nilai yang mendekati satu berarti
vatiabel variabel independen memberikan hampir semua informasi yang
dibutuhkan untuk memprediksi variasi variabel dependen. Secra umum
koefisien desterminasi untuk data silang (crossection) relatif rendah karena
adanya variasi yang besar antara masing masing pengamatan, sedangkan
untuk data runtut waktu (time series) biasanya mempunyai nilai koefisien
determinasi yang tinggi.
Kelemahan mendasar penggkoefisien desterminasi adalah bias
terhadap jumlah variabel independen yang dimasukkan kedalam model.
Setiap tambahan satu variabel independen \, maka nilai R² pasti meningkat
tidak peduli apakah variabel tersebut berpengaruhsecara signifkan terhadap
variabel dependen. Oleh karena itu banyak peneliti menganjurkan untuk
menggunakan nlai adjusted R² pada saat mengevaluasimana model regresi
terbaik. Tidak seperti R², nilai adjuster R²dapat naik atau turun apabila satu
variabel independen di tambahkan ke dalam model.
Dalam kenyataan nilai adjuster R², dapat bernilai negatif ,walaupun
yang di kehendaki harus positif. Menurut Gujarati (2003) jika dalam uji
empiris didapat nilai adjuster R² negatif, maka nilai adjusted R²dianggap
bernilai nol. Secara matematis jika nilai R² = 1 maka adjusted R²= R²= 1,
Sedangkan jika nilai R²= 0 maka adjuster R²= (1-k)(n-k). Jika k ¿ 1, maka
adjusted R² akan bernilai negatif.

b. Uji Signifikasi Simultan (Uji Statistik F)


Uji Statistik F pada dasarnya menunjukkan apakah semua variable
independen yang dimasukkan dalam model mempunyai pengaruh secara
Bersama-sama atau ssimultan terhadap variable dependen.
Hipotesis Nol adalah joint hipotesis bahwa β1, β2……βk secara simultan sama
dengan nol.

H0 : β1 = β2 = …… βk = 0

Pengujian hipotesis ini disebut pengujian signifikansi keseluruhan


(overall significance) terhadap garis regresi yang ingin yang ingin menguji
apakah Y secara linear berhubungan dengan kedua X1 dan X2. Joint hipotesis
dapat diuji dengan tektik analisis variance (ANOVA).

Pengambilan Keputusan :

Misalkan model regresi dengan k-variabel

Yi = α + β1X1i + β2X2i + β3X3i + ……+ βkXki + µi

Hipotesis Nol H0: β1 = β2 = ……. = βk = 0


( Semua koefisien slope secara simultan sama dengan nol)

HA : Tidak semua koefisien slope secara simultan sama dengan nol


Hitung nilai F statistic dengan rumus :

ESS | df ESS | (k – l)
F= =
RSS | df RSS | (n – k)
Secara sistematis nilai F dapat juga dinyatakan dalam rumus berikut :

R2| (k – 1)
F=
(1 – R2) | (n – k)

Dapat disimpulkan jika R2=0 maka F=0. Semakin besar nilai R2, maka
semakin besar nilai F. Namun jika R2 = 1, maka F tak terhingga.

c. Uji Signifikan Parameter Individual (Uji Statistik t)


Uji statistic t pada dasarnya menunjukan seberapa jauh pengaruh satu variabel
dependen dengan menganggap variabel independent lainnya konstan, Jika
asumsi normalitas error yaitu: µi ~ N(0, 2) terpenuhi, maka kita dapat menguji
koefisien parsial dari regresi. Misalkan kita ingin menguji apakah variabel X1
berpengaruh terhadap Y dengan menganggap variabel X lainnya konstan :

H0: β1 = 0 dan HA: β1 ≠ 0


β1
Uji t=
se(β1)

Dimana β1 adalah koefisien parameter dan (β1) adalah standard error


koefisien parameter. Jika nilai hitung t > nilai t table tα(n – k) , maka H0
ditolak yang berarti X1 berpengaruh terhadap Y. α adalah tingkat signifikansi
dan (n – k) derajad bebas yaitu jumlah n observasi dikurangi jumlah variabel
independent dalam model.
Sedangakn estimasi confident-interval dapat dihitung dengan rumus seperti di
bawah ini :

β1 – tα | 2se(β1) ≤ β1 ≤ + tα | 2se (β1)

Contoh aplikasi regresi dengan data silang (cossection data)


Untuk Menjelaskan aplikasi dari teori regresi di atas marilah kita analisis file
employee.xls dengan program SPSS 17. File employee.xls adalah hasil survey
terhadap 474 responden yang berisi informasi tentang jenis kelamin (gender),
tanggal lahir (Bdate), lama pendidikan responden dalam tahun (Educ),
Jabatan responden, 1 clerical, 2=custodial dan 3=manager (Jobcat), gaji akhir
dalam ribu dollar (Salary), gaji awal dalam ribu dollar (Salbegin),
pengalaman kerja sebelumnya dalam bulan (Prevexp).

Kasus yang ingin dianalisis, apakah gaji akhir (Salary) dipengaruhi oleh
gaji awal (Salbegin), lamanya pendidikan (Educ) dan pengalaman kerja
sebelumnya (Prevecp). Secara matematis dapat dituliskan sebagai berikut:
Salary = α + β1Salbegin + β2Educ + β3Prevexp + µ
 Buka File multiple_reg
 Menu Analize  Regression  Linear .. tampak di Layar Linear
Regression
 Pada kotak Dependent isikan variabel Salary
 Pada kotak Independent isikan variabel salbegin, Educ dan Prevexp
 Pada kotak method pilih Enter
 Abaikan yang lain dan tekan Ok
 Hasil output SPSS

Untuk sementara kita abaikan terlebih dahulu uji asumsi klasik.


Misalkan hasil regresi telah lolos uji asumsi klasik, maka cara interpretasi
model regresi dengan Langkah sebagai berikut : pertama interpretasikan
koefisiensi determinasi, kedua uji statistic dan ketiga uji regresi parsial
dengan uji t.

Koefisien Determinasi

Model Summary

Model R R Square Adjusted R Std. error of


Square the Estimate

1 .895n .802 .800 $7,631.917

a.
Preditors : (Constant), Prevexp, Salbegin, Educ

Anda mungkin juga menyukai