3.5. Kriteria Ekonometrika
Tujuan regresi linier adalah mempelajari hubungan linier antara dua variabel. Dua variabel ini dibedakan menjadi variabel bebas L, K, R, E, TFP dan
variabel tidak bebas Y. Variabel bebas adalah variabel yang dapat dikontrol, sedangkan variabel tidak bebas adalah variabel yang mencerminkan respon dari
variabel bebas. Dalam analisis regresi terdapat tiga asumsi yang harus dipenuhi yaitu:
1. Heteroskedastisitas Salah satu asumsi pokok dalam model regresi linier klasik adalah bahwa
varian setiap disturbance term yang dibatasi oleh nilai tertentu mengenai variabel- variabel bebas adalah berbentuk suatu nilai konstan yang sama dengan
σ
2
. Asumsi ini yang disebut sebagai Homoskedasticity atau varian yang sama.
E μ
i 2
= σ
2
i = 1,2,3,…,n 3.10
Heteroskedastisitas terjadi jika ragam atau varians tidak konstan. Dampak heteroskedastisitas terhadap OLS adalah:
a. Varians lebih besar dari taksiran. b. Akibat lebih besarnya varians taksiran, maka uji-t dan uji F menjadi kurang
akurat karena kedua uji tersebut menggunakan besaran varian taksiran. c. Selain itu, lebih besarnya varians taksiran akan mengakibatkan standard error
taksiran juga lebih besar sehingga interval kepercayaan menjadi sangat besar. d. Ketiga dampak tersebut menyebabkan kesimpulan yang diambil menjadi tidak
benar.
Pengujian untuk mendeteksi gejala ini salah satunya dapat menggunakan White Heteroscedasticity Test Gujarati, 1993. Pengujian dilakukan dengan cara
melihat probabilitas ObsR-squared. Kriteria uji yang digunakan adalah: Jika nilai probabilitas pada ObsR-squared taraf nyata tertentu maka
persamaan tersebut mengalami homoskedastisitas. Jika nilai probabilitas pada ObsR-squared taraf nyata tertentu maka
persamaan tersebut mengalami heteroskedastisitas. 2. Autokorelasi
Autokorelasi merupakan gejala adanya korelasi antara serangkaian observasi yang diurutkan menurut deret waktu time series Gujarati, 1993.
Autokorelasi terjadi jika antara nilai error yang satu dengan yang lainnya tidak bersifat bebas.
Dampak adanya autokorelasi terhadap OLS adalah: a.
Selang kepercayaan suatu persamaan akan semakin lebar dan pengujian menjadi kurang akurat;
b. Varians residual yang diperoleh akan lebih rendah daripada semestinya;
c. Lebih kecilnya varians residual yang diperoleh mengakibatkan hasil uji-t dan
uji-F menjadi tidak sah serta R
2
menjadi lebih tinggi; d.
Akibat lainnya adalah penaksir regresi akan menjadi sensitif terhadap fluktuasi pengambilan contoh.
Pengujian untuk mendeteksi gejala ini salah satunya dapat menggunakan uji Durbin Watson Statistic D-W. Nilai D-W yang berada pada kisaran angka
dua menandakan tidak terdapat autokorelasi. Sebaliknya, jika semakin jauh dari
angka dua maka peluang terjadinya autokorelasi semakin besar. Namun jika nilai D-W jatuh pada daerah ragu-ragu maka hasil uji tidak dapat disimpulkan. Hal ini
merupakan kelemahan dalam pengujian D-W. Oleh karena itu, untuk mendeteksi autokorelasi digunakan pengujian
lain yaitu dengan menggunakan uji Breausch and Godfrey Serial Correlation Langrange Multiplier Test. Kriteria uji yang digunakan adalah:
Jika nilai probabilitas pada ObsR-squared taraf nyata yang digunakan maka persamaan tersebut tidak mengandung autokorelasi.
Jika nilai probabilitas pada ObsR-squared taraf nyata tertentu maka persamaan tersebut mengandung autokorelasi.
3. Multikolinearitas Dalam model regresi linier yang terdiri dari banyak variabel bebas
terkadang dijumpai adanya multikolinearitas. Multikolinearitas adalah hubungan linear yang kuat antara variabel-variabel bebas dalam persamaan regresi berganda.
Dampak adanya multikolinearitas terhadap OLS adalah: a.
Standard error dari variabel yang diduga cenderung semakin besar dengan meningkatnya tingkat korelasi antara peningkatan variabel meskipun penaksir
OLS dapat diperoleh; b.
Besarnya standard error membuat selang keyakinan untuk variabel yang relevan cenderung lebih besar;
c. Jika multikolinearitas tinggi maka probabilitas untuk menerima hipotesis yang
salah cenderung menjadi besar;
d. Kesalahan standard akan semakin besar dan sensitif jika ada perubahan data;
e. Pengaruh individual tidak mungkin diisolasi dari variabel yang menjelaskan.
Multikolinearitas sering terjadi ketika nilai R
2
tinggi yaitu ketika nilainya antara 0.7 dan 1. Meskipun nilai R
2
sangat tinggi, multikolinearitas cenderung menyimpulkan menerima H
, artinya pengaruh variabel bebas tidak signifikan. Untuk mengetahui multikolinearitas dalam suatu model, salah satu caranya adalah
dengan menggunakan Correlation Matrix, dimana batas terjadinya korelasi antara sesama variabel bebas adalah tidak lebih dari |0,8|. Semakin besar nilai correlation
matrix maka semakin erat hubungan antara variabel-variabel bebas tersebut atau multikolinearitas yang terjadi akan semakin tinggi. Melalui Correlation Matrix ini
dapat pula digunakan uji Klein dalam mendeteksi multikolinearitas Gujarati, 1993. Jika nilai korelasi lebih dari |0,8| dan tidak lebih dari nilai R
2
maka multikolinearitas dapat diabaikan.
IV. GAMBARAN UMUM