34
atau R
2
R adjusted berkisar antara 0 sampai dengan 1, semakin mendekati satu
semakin baik. Rumus perhitungannya yaitu :
2
= [ Y
t
– Y Y
t
– Y Y
t
– Y
2
Y
t
– Y
2
Dimana : Y
]
t
= Y
Y aktual
t
Y = Y rata-rata = Y dugaan
3.2.3.2 Kriteria Ekonometrika
Kriteria ini mengisyaratkan pengujian terhadap asumsi-asumsi dasar ekonometrika agar variabel yang diestimasi bersifat BLUE Best Linier unbiased
Estimate . Pengujian ini terdiri dari :
A. Heteroskedastisitas
Salah satu asumsi yang penting dalam regresi linier berganda yang harus dipenuhi agar model bersifat BLUE adalah Var u
i
= σ
2
Untuk mendeteksi ada atau tidaknya masalah heteroskedastisitas dalam data panel digunakan metode General Least Square Cross Section Weights. Jika
sum square resid pada Weighted Statistics lebih kecil dari sum square resid
konstan, atau semua residual atau error mempunyai varian yang sama homoskedastisitas. Adapun
yang disebut dengan heteroskedastisitas adalah sebaliknya, yaitu semua residual atau error mempunyai varian yang tidak konstan atau berubah-ubah. Pada
umumnya heteroskedastisitas terjadi pada data kerat lintang cross section. Menurut Gujarati 2004, jika pada model terjadi masalah heteroskedastisitas
maka model akan menjadi tidak efisien meskipun tidak bias dan konsisten. Dan jika regresi tetap dilakukan, hasil regresi yang diperoleh menjadi “misleading”.
35
unweighted statistics dapat dikatakan bahwa dalam model panel tersebut terjadi
masalah heteroskedastisitas. Cara yang dilakukan untuk menghilangkan masalah heteroskedastisitas ini adalah dengan mengestimasi GLS dengan white
heteroskedasticity. B.
Autokorelasi Suatu model dikatakan memiliki autokorelasi jika error dari periode
waktu time series yang berbeda saling berkorelasi. Masalah autokorelasi ini akan menyebabkan model menjadi tidak efisien meskipun masih tidak bias dan
konsisten. Autokorelasi menyebabkan estimasi standar error dan varian koefisien regresi yang diperoleh akan underestimated, sehingga R
2
Tabel 3.2 Kerangka Identifikasi Autokorelasi
akan besar serta uji t dan uji F akan menjadi tidak valid. Autokorelasi yang kuat dapat menyebabkan dua
variabel yang tidak berhubungan menjadi berhubungan. Untuk mendeteksi ada tidaknya autokorelasi adalah dengan melihat nilai dari Durbin Watson DW
statistiknya yang dibandingkan dengan nilai dari tabel DW. Berikut merupakan kerangka identifikasi dalam menentukan ada tidaknya autokorelasi.
Nilai DW Hasil
4-dlDW4 Tolak H0, korelasi serial negatif
4-dlDW4-dl Hasil tidak dapat ditentukan
2DW4-du Terima H0, tidak ada korelasi serial
duDW2 Terima H0, tidak ada korelasi serial
dlDWdu Hasil tidak dapat ditentukan
0DWdl Tolak H0, korelasi serial positif
Sumber : Gujarati, 2004 Korelasi serial terjadi apabila error dari periode waktu yang berbeda
saling berkorelasi. Untuk mendeteksi hal ini yaitu dengan melihat pola random error
dari hasil regresi. Dalam pendekatan fixed effect tidak mensyaratkan
36
persamaan terbebas dari masalah autokorelasi sehingga asumsi adanya autokorelasi dapat diabaikan.
C. Multikolinearitas
Multikolinearitas terjadi apabila terdapat hubungan linier antar variabel independen. Indikasi terjadinya multikolinearitas adalah dengan melihat hasil t
dan F statistik hasil regresi. Apabila koefisien parameter dari t statistik banyak yang tidak signifikan sementara F hitungnya signifikan maka patut diduga terjadi
masalah multikolinearitas. Masalah ini dapat diatasi dengan cara menghilangkan variabel yang tidak signifikan, mentransformasikan data, dan menambah variabel.
D. Normalitas
Pengujian normalitas dilakukan untuk mengetahui apakah error term mendekati distribusi normal atau tidak. Uji normalitas error term dilakukan
dengan menggunakan uji Jarque Bera dengan hipotesisnya sebagai berikut : H
H : α = 0, error term terdistribusi normal
1
Wilayah penerimaan Jarque Bera X : α ≠ 0, error term tidak terdistribusi normal
2
df
-2
atau probabilitas p-value α sedangkan wilayah penolakannya yaitu Jarque Bera X
2
df
-2
atau probabilitas p-value
α.
3.2.3.3 Kriteria Ekonomi