Tabel 4.13 Hasil Uji Reliabilitas Variabel
Alpha Keterangan
X1 0.771
Reliabel X2
0.735 Reliabel
X3 0.744
Reliabel X4
0.720 Reliabel
X5 0.762
Reliabel X6
0.770 Reliabel
Y 0.771
Reliabel Sumber: Output SPSS 16, 2015
Tabel pengujian diatas menunjukkan bahwa ketujuh variabel reliable dengan nilai alpha diatas 0.6 sehingga dapat digunakan dalam tahap analisis
selanjutnya.
4.2.3 Uji Asumsi Klasik 4.2.3.1 Uji Normalitas
Tujuan uji normalitas yaitu untuk melihat dalam model regresi, variabel dependen dan independennya memiliki distribusi yang normal atau tidak. Dalam
hal ini dilakukan tiga pendekatan yaitu:
a. Pendekatan Histogram
Salah satu cara untuk melihat normalitas adalah dengan melihat kurva normal. Kurva normal adalah kurva yang memiliki ciri khusus dimana
mean, modus, dan mediannya berada ditempat yang sama. Maka jika terjadi kemencengan pada kurva skewness maka data tidak berdistribusi
normal.
Gambar 4.1 Histogram Uji Normalitas
Sumber: Output SPSS 16, 2015 Berdasarkan hasil gambar output spss diatas dapat dilihat bahwa
kurva tidak menceng ke kiri atau menceng ke kanan sisi kanan dan sisi kiri sama lebarnya maka data dapat dikatakan normal atau data
berdistribusi secara normal.
b. Pendekatan Grafik
Cara untuk melihat normalitas adalah dengan melakukan pendekatan grafik. Pendekatan ini dengan melihat titik-titik di sepanjang garis
diagonal.
Gambar 4.2 Normal Probability Plot
Sumber: Output SPSS 16, 2015
Dari tampilan output spss diatas maka dapat dilihat bahwa titik-titik pada p-p plot diatas menyebar masih disekitar garis diagonal maka data
dapat dikatakan normal atau data berdistriusi secara normal.
c. Pendekatan Kolmogorv-Smirnov
Untuk memastikan apakah data di sepanjang garis diagonal dan histogram berdistribusi normal maka dilakukan uji Kolmogorv-Smirnov
yang merupakan uji statistik non-parametik. Apabila Asymp. Sig. 2- tailed lebih dari 0.05 maka data dapat dikatakan normal, namun apabila
nilainya kurang dari 0.05 maka data berdistribusi tidak normal.
Tabel 4.14 Uji Kolmogorv-Smirnov
Sumber: Output SPSS 16, 2015
Dari tampilan diatas Asymp. Sig. 2-tailed lebih dari 0.05 yaitu 0,442 maka data dapat dikatakan berdistribusi secara normal.
4.2.3.2 Uji Multikolinearitas
Bertujuan untuk mengetahui apakah model regresi ditemukan adanya kolerasi antara variabel bebas atau variabel independen. Metode untuk
mendiagnosa adanya multicollinearity dilakukan dengan melihat nilai dari tolerance dan Variante Inflation Factor VIF, suatu model regresi
dikatakan bebas dari multikolinearitas. Jika nilai tolerance lebih besar dari 0,10 maka artinya tidak terjadi
multikolinearitas antar variabel bebas. Jika nilai tolerance lebih kecil dari 0,10 maka artinya terjadi multikolinearitas antar variabel bebas. Jika nilai
VIF lebih kecil dari 10,0 maka artinya tidak terjadi multikolinearitas antar variabel bebas. Jika nilai VIF lebih besar dari 10,0maka artinya terjadi
multikolinearitas antar variabel bebas.
Tabel 4.15 Hasil Uji Multikolinearitas
Sumber: Output SPSS 16, 2015 Berdasarkan
tabel diatas dapat dilihat bahwa tidak terjadi multikolinearitas antara sesama variabel bebas hal ini dilihat dari nilai
tolerance seluruh variabel bebas lebih besar dari 0,10 dan nilai VIF seluruh variabel bebas lebih kecil dari 10,0. Jadi, variabel bebas yang
diteliti tidak saling berhubungan sehingga tepat digunakan sebagai variabel bebas dalam model.
4.2.3.2 Uji Heteroskedastisitas
Uji heteroskedastisitas bertujuan untuk menguji apakah model dalam regresi terjadi ketidaksamaan varians dari residual pengamatan yang lain. Jika
varians tetap maka disebut homoskedastisitas, dan jika variansnya berbeda maka disebut heteroskedastisitas. Ada beberapa cara untuk mendeteksi ada atau
tidaknya heteroskedastisitas yaitu dengan pendekatan grafik dan uji Glejser.
a. Pendekatan Grafik