3.6.2 Statistik Deskriptif
Menurut Sugiyono 2006: 142 statistik deskriptif adalah statistik yang digunakan untuk menganalisa data dengan cara mendeskripsikan atau
menggambarkan data yang telah terkumpul sebagaimana adanya tanpa bermaksud membuat kesimpulan yang berlaku untuk umum atau generalisasi.
Statistik deskriptif digunakan bila peneliti hanya ingin mendeskripsikan data sampel dan tidak ingin membuat kesimpulan yang berlaku untuk populasi
dimana sampel diambil. Termasuk dalam statistik deskriptif antara lain adalah penyajian data melalui tabel, grafik, diagram lingkaran, pictogram perhitungan
modus, median, mean pengukuran tendensi sentral, perhitungan desil, persentil, perhitungan penyebaran data melalui perhitungan rata-rata standar
deviasi dan perhitungan prosentasi, dalam Sugiyono 2006: 143. Penelitian yang dilakukan menggunakan pengujian hipotesis asosiatif
dengan datanya berbentuk interval maka digunakan teknik analisis regresi. Analisis regresi digunakan untuk melakukan prediksi, bagaimana perubahan
nilai variabel dependen bila nilai variabel independen dinaikkan atau diturunkan nilainya dimanipulasi, dalam Sugiyono 2006: 149.
3.6.3 Pengujian asumsi klasik
3.6.3.1 Uji normalitas
Tujuan uji normal variabel atau residual memiliki distribusi adalah ingin mengetahui apakah dalam model regresi variabel pengganggu atau residual
memiliki distribusi normal. Uji normalitas yang digunakan dalam penelitian ini adalah uji grafik dan uji Statistik Kolmogrov-Smirov K-S. Pada uji grafik,
data yang baik adalah data dengan bentuk lonceng bell shaped yang mempunyai pola seperti distribusi normal.
Uji statistik Kolmogrov-Smirov K-S memiliki kriteria sebagai berikut: 1. Nilai Signifikan 0,05, maka distribusi data adalah tidak normal.
2. Nilai Signifikan 0,05, maka distribusi data adalah normal.
3.6.3.2 Uji multikolinieritas
Uji ini bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi diantara variabel independen. Multikolinieritas adalah situasi adanya
korelasi variabel-variabel independen antara yang satu dengan yang lainnya. Dalam hal ini kita sebut variabel-variabel bebas ini tidak ortogonal. Variabel-
variabel bebas yang bersifat ortogonal adalah variabel bebas yang memiliki nilai korelasi diantara sesamanya sama dengan nol. Jika terjadi korelasi
sempurna diantara sesama variabel bebas, maka konsekuensinya adalah : a. Koefisien –koefisien regresi menjadi tidak dapat ditaksir.
b. Nilai standar error setiap koefisien regresi menjadi tidak terhingga. Pengujian ini bermaksud untuk menguji apakah pada model regresi ditemukan
adanya korelasi antarvariabel independen. Jika terjadi korelasi, maka dinamakan terdapat problem multikolinearitas. Ada dua cara yang dapat
dilakukan jika terjadi multikolinearitas, yaitu: a. mengeluarkan salah satu variabel, misalnya variabel independen A dan B
saling berkolerasi dengan kuat, maka bisa dipilih A atau B yang dikeluarkan dari model regresi.
b. menggunakan metode lanjut seperti Regresi Bayesian atau Regresi Ridge.
Pengujian multikolinearitas dilakukan dengan melihat nilai VIF dan tejadi korelasi di antara variabel independen. Jika nilai VIF lebih besar dari 2, maka
terjadi multikolinearitas di antara variabel independen. Disamping itu, suatu model dikatakan terdapat gejala multikolinearitas, jika korelasi diantara variabel
independen lebih besar dari 0,9 Ghozali, 2001 dalam Erlina 2008: 105.
3.6.3.3 Uji heteroskedastisitas