Pengujian asumsi klasik yang dilakukan terdiri dari
a. Uji Normalitas
Menurut Ghozali 2005, “uji normalitas bertujuan untuk menguji apakah variabel independen dan variabel dependen berdistribusi normal”. Model regresi
yang baik adalah memiliki distribusi data normal atau mendekati normal. Untuk melihat normalitas data dapat dilakukan dengan melihat histogram atau pola
distribusi data normal. Normalitas dapat dideteksi dengan melihat penyebaran data titik pada sumbu diagonal dari grafik atau dengan melihat histogram dari
nilai residualnya. Dasar pengambilan keputusannya adalah:
1 Jika data menyebar di sekitar garis diagonal dan mengikuti arah garis
diagonal atau garis histogramnya menunjukkan pola berdistibusi normal, maka model regresi memenuhi asumsi normalitas,
2 Jika data menyebar jauh dari diagonal dan tidak mengikuti arah garis diagonal
atau grafik histogram tidak menunjukkan data berdistribusi normal, maka model regresi tidak memenuhi asumsi normalitas.
Dalam penelitian ini, Peneliti menggunakan uji Kolmogorov-Smirnov K-S untuk menguji normalitas data. Uji K-S dibuat dengan membuat hipotesis:
Ho : data residual berdistribusi normal, H1 : data residual tidak berdistribusi normal.
Bila signifikasi 0,05 dengan α = 5, berarti distribusi data normal dan Ho diterima, sebaliknya bila nilai signifikansi 0,05 berarti distribusi data tidak
normal dan Ha diterima. Data yang tidak terdistribusi secara tidak normal dapat
Universitas Sumatera Utara
ditransformasikan agar menjadi normal. Jika data tidak normal ada beberapa cara mengubah model regresi menjadi normal menurut Jogiyanto 2004:172, yaitu:
1 Dengan melakukan transformasi data ke bentuk lain, yaitu Logaritma
Natural, akar kuadrat, Logaritma lo, 2
Lakukan trimming, yaitu mengubah observasi yang bersifat outlier, 3
Lakukan winsorizing, yaitu mengubah nilai-nilai data outlier menjadi nilai-nilai minimum atau maksimum yang diizinkan supaya
distribusinya menjadi normal.
b. Uji Multikolinearitas
Menurut Ghozali 2005, “uji ini bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi antar variabel independen.” Model regresi yang
baik seharusnya tidak terjadi korelasi di antara variabel independen. Multikolinearitas adalah situasi adanya korelasi variabel-variabel independen
antara yang satu dengan yang lainnya. Jika terjadi korelasi sempurna diantar sesama variabel bebas, maka
konsekuensinya adalah: 1
Koefisien-koefisien regresi menjadi tidak dapat ditaksir, 2
Nilai standar error setiap koefisien regresi menjadi tak terhingga. Ada tidaknya multikolinearitas dapat dideteksi dengan melihat nilai
tolerance dan variance inflation factor VIF, serta dengan menganalisis matriks korelasi variabel-variabel independen. Nilai cut off yang umum dipakai untuk
menunjukkan adanya multikolinearitas adalah jika nilai VIF tidak lebih dari 10 dan nilai tolerance tidak kurang 0,1 maka model dapat dikatakan terbebas dari
multikolinearitas.
Universitas Sumatera Utara
Ada dua cara yang dapat dilakukan jika terjadi multikolinearitas, yaitu: a.
Mengeluarkan salah satu variabel, misalnya variabel independen A dan B saling berkolerasi kuat, maka bisa di pilih A atau B yang dikeluarkan dari
model regresi. b.
Menggunakan metode lanjut seperti Regresi Bayesian atau Regresi Ridge.
c. Uji Heteroskedastisitas