Uji Asumsi
3.8 Uji Asumsi
Uji asumsi atau uji persyaratan analisis ini merupakan persyaratan bagi penerapan analisis statistik inferensial-parametrik. Uji persyaratan ini adalah untuk mengetahui apakah data yang diperoleh telah memenuhi persyaratan untuk dianalisis dengan menggunakan teknik parametik. adapun syarat-syarat penggunaan adalah : variabel yang akan dianalisis harus berasal dari data berskala interval (Hadi, 2006), Pengaruh antara variabel bebas dan variabel terikat berdistribusi normal (Riduan dan Kuncoro, 2008). untuk persyaratan yang menyatakan bahwa variabel-variabel yang akan dianalisis berasal dari data yang berskala interval, tidak perlu di uji karena data yang diperoleh telah berskala interval. Karena itu uji asumsi yang dicari anatara lain : (1) Uji Linieritas, (2) Uji homogenitas (3) Uji Normalitas, (4) multikolineritas antara variabel bebas, (5) uji autokorelasi, dan (6) uji Heteroskedastisitas variabel.
3.8.1 Uji Linieritas
Uji linearitas bertujuan untuk mengetahui apakah dua atau lebih variabel mempunyai Pengaruh yang linear atau tidak secara signifikan. Uji ini biasanya digunakan sebagai prasyarat dalam analisis korelasi atau regresi linear. Pengujian pada SPSS dengan menggunakan Test for Linearity dengan pada taraf signifikansi 0,05. Dua atau lebih variabel dikatakan mempunyai Pengaruh yang linear bila signifikansi (Linearity) kurang dari 0,05.
3.8.2 Uji Normalitas Data
Untuk uji normalitas data dalam penelitian ini dilakukan dengan uji kolmogorov -smimov. untuk mendapatkan nilai kolmogorov –smimov di gunakan bantuan komputer program SPSS for windows. Apabila nilai lebih besar atau sama dengan 0,05, maka datanya dinyatakan normal, dan jika nilai lebih kecil dengan 0,05, maka data dinyatakan tidak normal (Santoso, 2004).
3.8.3 Uji Multikolinearitas
Uji multikolinearitas bertujuan untuk menguji apakah dalam model regresi ditemukan adanya korelasi antara variabel bebas. Dalam model regresi yang baik seharusnya tidak terjadi korelasi diantara variabel bebas. Apabila tolerance value lebih tinggi dari 0,10 atau Variance Inflation Factor (VIF) lebih kecil daripada 0,10 maka disimpulkan tidak terjadi multikolinearitas. Rumus untuk mengetahui ada tidaknya multikolinearitas pada suatu model regresi dapat dilakukan dengan melihat TOL dan VIF yaitu kecepatan peningkatan daripada varian dan kovarian yang didefinisikan sebagai berikut:
…………………………...………………………….(2)
Keterangan :
VIF = Varian Inflation faktor Variabel
R2 = Korelasi variabel
……………………………...……… …(3)
Keterangan :
TOL = Tolerance variabel
R2 = Korelasi variabel
3.8.4 Uji Autokorelasi
Autokorelasi dapat didefinisikan sebagai korelasi antara variabel gangguan satu dengan variabel gangguan lainnya. Adanya autokorelasi disebabkan parameter yang diestimasi menjadi bias dan variannya tidak minimum, sehingga tidak efisien. Model regresi yang baik adalah regresi yang bebas dari autokorelasi. Rumus untuk mendeteksi ada tidaknya autokorelasi, dapat digunakan uji Durbin Watson statistik (Santoso, 2004 : 210). Mekanisme uji Durbin Watson adalah sebagai berikut.
a) Mencari
b) Menyusun Hipotesis
Ho : tidak ada autokorelasi dalam model baik autokorelasi positif atau negatif.
H1 : ada autokorelasi dalam model baik autokorelasi positif atau negatif.
c) Menetapkan “d” pada daerah uji Durbin Watson, dengan ketentuan:
d < d1 : terjadi autokorelasi positif dalam model
d1 < d < du : jatuh pada daerah keragu-raguan
du < d < 4-du : tidak terjadi autokorelasi baik positif maupun negatif
4-du<d<4-d1 : jatuh pada daerah keragu-raguan
4-d1<d : terjadi autokorelasi negatif dalam model.
a. Daerah pengujian untuk uji durbin Watson terlihat pada gambar berikut.
Gambar 3.1 Daerah Pengujian Untuk Uji Durbin Watson
Terjadi Daerah bebas Terjadi
autokorelasi autokorelasi autokorelasi
positif Daerah Daerah negatif
keragu- keragu-
raguan raguan
dl du 2 4-du 4-dl
Sumber : Gujarati ( 1997 : 217)
3.8.5 Uji Heteroskedastisitas
Uji heteroskedastisitas dilakukan dengan menggunakan uji Glejser, yang dilakukan dengan meregresikan volume absolut unstandarized residual yang diperoleh dari model regresi sebagai variabel dependen terhadap semua variabel independen dalam model regresi.
Ada tidaknya heteroskedastisitas, terlihat pada volume koefisien β1 pada pengujian. Apabila tidak signifikan maka H1 diterima, berarti tidak ada masalah heteroskedastisitas, diterimanya Ho menunjukkan adanya heteroskedastisitas.
Masalah heteroskedastisitas dapat diatasi dengan transformasi log yaitu mengubah bentuk persamaan ke dalam bentuk log. Dengan metode ini, maka skala ukuran semua variabel diperkecil sehingga masalah heteroskedastisitas juga dapat diperkecil. Gejala heteroskedastisitas ini biasanya terdapat data cross section dan jarang terdapat data time series.