2. Uji Autokorelasi Uji autokorelasi digunakan untuk mengetahui ada atau tidaknya penyimpangan dalam
asumsi klasik autokorelasi, yaitu korelasi yang terjadi antara residual pada suatu pengamatan dengan pengamatan lain pada model regresi Dwi Priyatno, 2008 : 47 .
Uji autokorelasi bertujuan untuk menguji apakah dalam suatu model regresi linear ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan pada
periode t-1 sebelumnya. Jika terjadi korelasi maka dinamakan ada problem autokorelasi. Model regresi yang baik adalah regresi yang bebas dari autokorelasi.
Uji autokorelasi yang digunakan dalam penelitian ini adalah uji Durbin-Watson DW test. Uji ini hanya digunakan untuk korelasi tingkat satu first order
autocorrelation dan mensyaratkan adanya intercept konstanta dalam model regresi dan tidak ada variabel lain diantara variabel bebas.
Dasar yang digunakan untuk pengambilan keputusan secara umum diperlihatkan
dalam Tabel 3 berikut.
Tabel 3. Tabel Durbin – Watson D-W
Hipotesis Nol Jika
Tidak ada autokorelasi positif Tidak ada autokorelasi positif
Tidak ada autokorelasi negatif Tidak ada autokorelasi negatif
Tidak ada autokorelasi positif atau negatif 0 d d
L
d
L
≤ d ≤ d
U
4 – d
L
d 4 4
– d
U
= d = 4 – d
L
d
U
d 4 – d
U
Ket : d
U
: Durbin Watson upper, d
L
: Durbin Watson lower
3. Uji Multikolinearitas
Uji multikolinearitas bertujuan untuk menguji apakah model regresi ditemukan adanya penyimpangan asumsi klasik multikolinearitas, yaitu adanya hubungan linear
antar variabel independen dalam model regresi Dwi Priyatno, 2008 : 39. Model regresi yang baik seharusnya tidak terjadi korelasi diantara variabel bebas. Akibat
bagi model regresi yang mengandung multikolinearitas adalah bahwa kesalahan standar estimasi akan cenderung meningkat dengan bertambahnya variabel
independen, tingkat signifikansi yang digunakan untuk menolak hipotesis nol akan semakin besar dan probabilitas menerima hipotesis yang salah juga akan semakin
besar. Untuk mendeteksi ada tidaknya multikolinearitas dalam model regresi adalah sebagai
berikut : Nilai R
2
yang dihasilkan oleh suatu estimasi model regresi empiris sangat tinggi, tetapi secara individual variabel
– variabel independen banyak yang tidak signifikan mempengaruhi variabel dependen.
Menganalisis matrik korelasi variabel – variabel bebas. Jika antar variabel bebas ada korelasi yang cukup tinggi 0,90 , maka hal ini mengindikasikan
adanya multikolinearitas. Menurut Imam Ghozali 2005 : 63, multikolinearitas dapat juga dilihat dari
nilai tolerance dan lawannya Variance Inflation Factor VIF. Jika nilai tolerance yang rendah sama dengan nilai VIF yang tinggi, maka menunjukkan
adanya multikolinearitas yang tinggi. Multikolinearitas terjadi bila nilai VIF 10 dan nilai tolerance 0,1.
4. Uji Heteroskedastisitas Uji heteroskedastisitas digunakan untuk mengetahui ada atau tidaknya penyimpangan
dalam asumsi klasik heteroskedastisitas , yaitu adanya ketidaksamaan varian dari residual untuk semua pengamatan pada model regresi Dwi Priyatno, 2008 : 42.
Jika varians dari residual satu pengamatan ke pengamatan yang lain berbeda, maka disebut heteroskedastisitas, sebaliknya jika tetap disebut homokesdatisitas. Model
yang baik adalah homokedastisitas. Ada beberapa motode pengujian yang bisa digunakan, diantaranya yaitu Uji Park, Uji Glesjer, melihat pola grafik regresi dan
Uji Koefisien Korelasi Spearman Dwi Priyatno, 2008 : 42 .
3.5.3 Uji Goodness of Fit
Ketepatan dari fungsi regresi sampel dalam menaksir nilai aktual dapat diukur dari
goodness of fit nya. Secara statistik diukur dari nilai koefisien determinasi R
2
, uji F uji kelayakan model, dan uji t uji secara parsial Ghozali, 2005 : 83 .
1. Koefisien Determinasi
Koefisien determinasi R
2
digunakan untuk mengukur seberapa jauh kemampuan model dalam menerangkan variasi variabel dependen Ghozali, 2005 : 83. Nilai
Koefisien determinasi adalah antara 0 dan 1. Bila nilai R kecil berarti kemampuan variabel
– variabel independen dalam menerangkan variabel dependen sangat
terbatas. Jika nilai R mendekati 1 berarti variabel independen memberikan hampir semua informasi yang dibutuhkan untuk memprediksi variasi variabel independen.
Kelemahan dari koefisien determinasi R
2
adalah bias terhadap jumlah variabel independen yang dimasukkan ke dalam model. Setiap tambahan satu variabel
independen, maka R
2
pasti meningkat tidak peduli apakah variabel tersebut berpengaruh secara signifikan terhadap variabel dependen. Oleh karena itu, dalam
penelitian ini digunakan nilai Adjusted R
2
. Nilai Adjusted R
2
dapat naik atau turun apabila satu variabel independen ditambahkan ke dalam model.
2. Uji F