Uji Asumsi Klasik Teknik Analisis Data

yang serupa dengan Chow Test yaitu program Eviews. Hipotesis yang dibentuk dalam Hausman Test adalah sebagai berikut : H : Model Random Effect Ha : Model Fixed Effect H ditolak jika P-value lebih kecil dari nilai a. Sebaliknya, H diterima jika P-value lebih besar dari nilai a. Nilai a yang digunakan sebesar 5. 43

3. Uji Asumsi Klasik

Uji asumsi klasik adalah persyaratan statistic yang harus dipenuhi pada analisisi regresi linier berganda yang berbasis Ordinary Least Square OLS. Beberapa alat uji yang sering dilakukan dalam uji asumsi klasik adalah: 44

a. Uji Normalitas

45 Uji normalitas dilakukan untuk melihat apakah nilai residual terdistribusi normal atau tidak. Model regresi yang baik adalah yang memiliki nilai residual yang terdistribusi normal. Jadi uji normalitasbukan dilakukan pada masing-masing variabel tetapi pada nilai residualnya. Jika asumsi ini dilanggar maka uji statistik menjadi tidak valid untuk jumlah sampel kecil. Metode untuk menguji normalitas data adalah dengan melihat Tes Normalitas Jarque-Bera. 43 Ibid, h. 157 44 Albert Kurniawan, 2014, h. 156 45 Ibid, h. 156 Data dianggap normal ketika nilai Jarque-Bera lebih kecil dari nilai Chi-Square tabel dengan degree of freedom sebanyak data sampel yang ada dan nilai probability lebih besar dari nilai signifikansi 0,05. 46 Selain itu dapat juga digunakan one-Sample Kolgomorov-Smirnov Test dengan melihat tingkat signifikasinya, jika 0,05 maka data terdistribusi secara normal.

b. Uji Multikolinearitas

47 Uji multikolinearitas bertujuan untuk melihat ada atau tidaknya korelasi yang tinggi antara variabel-variabel bebas dalam suatu model regresi linear berganda. Jika ada korelasi yang tinggi diantara variabel- variabel bebasnya, maka hubungan antara variabel bebas terhadap variabel terikatnya menjadi terganggu. Pada kasus multikolinearitas serius, koefisien regresi tidak lagi menunjukkan pengaruh murni dari variabel independen dalam model. Beberapa kriteria untuk mendeteksi multikolinearitas dalam suatu model adalah sebagai berikut: 1 Jika nilai Variance Inflation Factor VIF tidak lebih dari 10 dan nilai Tolerance tidak kurang dari 0,1, maka model dapat dikatakan terbebas dari multikolinearitas. Semakin tinggi VIF, maka semakin rendah Tolerance. 46 Wing Wahyu Winarno, “Analisis Ekonometrika dan Statistika dengan Eviews”, Edisi 3, UPP STIM YKPM, Yogyakarta, 2011, h. 5.37 47 Albert Kurniawan, 2014, h. 157 2 Jika nilai koefisien korelasi antar masing-masing variabel independen kurang dari 0,70, maka model dapat dikatakan terbebas dari multikolinearitas. Jika lebih dari 0,70 maka diasumsikan terjadi korelasi interaksi hubungan yang sangat kuat antar variabel independen sehingga terjadi multikolinearitas. 48 3 Jika nilai koefisien determinasi, baik nilai R 2 maupun Adjusted R 2 di atas 0,60, namun tidak ada variabel independen yang berpengaruh terhadap variabel dependen, maka diasumsikan model terkena multikolinearitas.

c. Uji Heteroskedastisitas

49 Uji heteroskedastisitas adalah untuk melihat apakah terdapat ketidaksamaan varians dari residual satu pengamatan ke pengamatan yang lain. Model regresi yang memenuhi persyaratan adalah dimana terdapat kesamaan varians dari residual satu pengamatan ke pengamatan lain tetap atau disebut homoskedastisitas. Jika terjadi heteroskedastisitas, maka akan berpengaruh kepada penaksiran standar error yang bias sehingga menyebabkan nilai t hitung menjadi bias. t hitung yang bias menyebabkan pengambilan keputusan melalui pengujian hipotesis menjadi bias juga sehingga dapat menghasilkan kesimpulan yang salah. 48 Dedi Rosadi, 2012, h. 80 49 Ibid, h. 158 Deteksi heteroskedastisitas dapat dilakukan dengan uji Park 50 , dimana nilai residual data yang telah di log natural diregresikan dengan variabel independen yang ada. Jika dari salah satu variabel independen ada yang signifikan mempengaruhi nilai residual, maka dapat dikatakan model terkena heteroskedastisitas.

d. Uji Autokorelasi

Menguji autokorelasi dalam suatu model bertujuan untuk mengetahui ada atau tidaknya korelasi antara variabel pengganggu et pada periode tertentu dengan variabel pengganggu periode sebelumnya et-1. Jika dalam model regresi terjadi autokorelasi yang kuat maka dapat menyebabkan dua variabel yang berhubungan menjadi tidak berhubungan, biasa disebut spourious regression. Hal ini dapat terlihat dari R 2 . Untuk mendeteksi ada atau tidaknya autokorelasi diuji dengan Durbin-Watson. 51 Dasar pengambilan keputusan ada tidaknya autokorelasi dalam model regresi adalah sebagai berikut: 52 1 Bila nilai D-W terletak antara batas atas atau upper bound du dan 4-du maka koefisien autokorelasi = 0, berarti tidak ada autokorelasi. 50 Wing Wahyu Winarno, 2011, h. 5.12 51 Ibid, h. 158 52 Imam Ghozali, 2011, h.111 2 Bila nilai D-W lebih rendah daripada batas bawah atau lower bound dl maka koefisien autokorelasi 0, berarti ada autokorelasi positif. 3 Bila nilai D-W lebih besar dari 4-dl maka koefisien autokorelasi 0, berarti ada autokorelasi negatif. 4 Bila nilai D-W terletak antara batas atas du dan batas bawah dl atau D-W terletak antara 4-du dan 4-dl, maka hasilnya tidak dapat disimpulkan.

4. Analisis Regresi Berganda