3.8.1 Uji Normalitas
Uji normalitas bertujuan untuk mengetahui apakah dalam model regresi, variabel bebas dan variabel terikatnya mempunyai distribusi normal atau tidak.
Suatu model regresi dikatakan baik, apabila memiliki distribusi normal ataupun mendekati normal. Normalitas dapat dideteksi dengan melihat gambar histogram,
tetapi seringkali polanya tidak mengikuti bentuk kurva normal, sehingga sulit untuk disimpulkan. Pada penggunakan software SPSS, dapat dilihat berdasarkan
nilai Asymp. Sig. 2-tailed pada N-par test, jika nilai Asymp. Sig. 2-tailed lebih besar dari alpha, maka data terdistribusi normal.
3.8.2 Uji Multikolinearitas
Multikolinearitas adalah hubungan linear yang kuat antara variabel-variabel eksogen dalam persamaan regresi berganda. Jika nilai R
2
yang diperoleh tinggi antara 0,8 dan 1 tetapi tidak terdapat atau sedikit sekali koefisien dugaan yang
signifikan pada taraf uji tertentu dan tanda keofisien regresi dugaan tidak sesuai
teori maka model yang digunakan berhubungan dengan masalah multikolinearitas Gujarati, 1997.
Hal utama yang menyebabkan terjadinya multikolinearitas pada model regresi yaitu kesalah teoritis dalam pembentukan model fungsi regresi yang
dipergunakan atau terlampau kecilnya jumlah pengamatan yang akan dianalisis dengan model regresi.
Tindakan perbaikan terhadap multikolinearitas dapat dilakukan dengan
berbagai alternatif sebagai berikut: 1. Menggunakan extraneous atau informasi sebelumnya.
2. Mengkombinasikan data cross section dan data time series. 3. Membuang variabel yang berkorelasi.
4. Mentransformasikan data. 5. Mendapatkan tambahan atau baru.
3.8.3 Uji Autokorelasi
Salah satu asumsi dari model regresi linear adalah bahwa tidak ada autokorelasi atau korelasi serial antara error term
εt. Dengan pengertian lain, error term
menyebar bebas atau Covεi, εj = Eεi, εj = 0, untuk semua i ≠ j. Jika antar error term
tidak bebas atau E εi, εj ≠ 0, untuk semua i ≠ j, maka terdapat masalah autokorelasi Juanda, 2009. Autokorelasi sering terjadi pada data time
series , dimana error term pada suatu periode waktu secara sistematik tergantung
kepada error term pada periode-periode waktu yang lain.
Konsekuensi dari adanya autokorelasi yaitu varian yang diperoleh dari estimasi dengan ECM bersifat under estimate, yaitu nilai varian parameter yang
diperoleh lebih kecil daripada nilai varian yang sebenarnya. Cara mendeteksi ada tidaknya autokorelasi bisa dilakukan dengan melihat
nilai Durbin Watson DW
statistik
, kemudian membandingkannya dengan DW
tabel
. Sebuah model dapat dikatakan terbebas dari autokorelasi jika nilai DW
statistik
terletak di area nonautokorelasi. Penentuan area tersebut dibantu dengan nilai tabel d
l
dan d
u
. Pengujian menggunakan hipotesis sebagai berikut Juanda, 2009:
H : Tidak terdapat autokorelasi
H
1
: Terdapat autokorelasi Tabel 7. Kerangka Identifikasi Autokorelasi
Nilai DW Hasil
DW 4 Tolak
, korelasi serial negatif DW
Hasil tidak dapat ditentukan 2 DW
Terima , tidak ada korelasi serial
DW 2 Terima
, tidak ada korelasi serial DW
Hasil tidak dapat ditentukan 0 DW
Tolak , korelasi serial positif
Solusi dari masalah autokorelasi adalah: 1.
Penghilangan variabel yang sebenarnya berpengaruh terhadap variabel endogen.
2. Kesalahan spesifikasi model. Hal tersebut diatasi dengan mentransformasi
model, misalnya dari model linear menjadi model non linear atau sebaliknya.
3.8.4 Uji Heteroskedastisitas