3.5.1 Uji Normalitas
Bertujuan untuk menguji apakah dalam metode regresi variabel terikat dan variabel bebas keduanya mempunyai distribusi normal atau tidak. Mode regresi
yang baik adalah memiliki distribusi normal atau mendekati normal. Cara untuk mengetahui normalitas adalah dengan melihat normal
probably plot yang membandingkan distribusi kumulatif dari distribusi normal. Distribusi normal akan membentuk suatu garis lurus diagonal dan ploting data
akan dibandingkan dengan garis diagonal. Jika distribusi data adalah normal maka garis yang menggambarkan data sesungguhnya akan mengikuti garis diagonalnya.
Untuk keperluan analisis data selanjutnya, maka akan lebih mudah dan lancar bila variabel – variabel yang diteliti mengikuti distribusi tertentu. Dari
teori kemungkinan apabila populasi yang diteliti berdistribusi normal maka konklusi bisa diterima, tetapi apabila populasi tidak berdistribusi normal maka
konklusi berdasarkan teori tidak berlaku. Oleh sebab itu, sebelum mengambil keputusan berdasarkan teori tersebut perlu diperiksa terlebih dahulu normalitas
distribusinya, apakah pada taraf signifikan tertentu atau tidak. Pengujian normalitas dimaksudkan untuk mengetahui normal tidaknya model regresi
yang diperoleh dengan uji Kolmogorov Smirnov atas data unstandardized residual dan dasar pengambilan keputusan berdasarkan probabilitas. Jika
probabilitas 0,05 maka model regresi berdistribusi normal. Disamping menggunakan uji Kolmogorov Smirnov analisis kenormalan data ini juga
didukung dari Plot Of Regression Standardized Residual. Apabila grafik yang
diperoleh dari output SPSS ternyata diperoleh titik – titik yang mendekati garis diagonal, dapat disimpulkan bahwa model regresi berdistribusi normal.
3.5.2 Uji Multikolinieritas
Uji multikolinearitas, artinya antara variable independen yang dengan variable independen yang dalam model regresi saling berhubungan secara
sempurna atau mendekati sempurna Algifari, 2008:84. Konsekuensi yang sangat penting bagi model regresi yang mengandung
multikolinearitas adalah bahwa kesalahan standard estimasi akan cenderung meningkat dengan bertambahnya variable independen, tingkat signifikasi yang
digunakan untuk menolak hipotesis nol akan semakin besar, dan probabilitas mnerima hipotesis yang salah kesalahan ß juga akan semakin besar. Akibatnya,
model regresi yang diperoleh tidak sahih valid untuk menaksir nilai variabel independen. Diagnosis secara sederhana terhadap adanya multikolinearitas di
dalam model regresi adalah sebagai berikut: 1. Melalui nilai t
hitung
, R
2
, F. R
2
tinggi nilai F ratio tinggi sedangkan sebagian besar atau bahkan seluruh koefisien regresi tidak signifikan
nilai t
hitung
sangat rendah mungkin terdapat multikolinearitas dalam model tersebut.
2. Menentukan koefisien korelasi antara variable independen yang satu dengan variable independen yang lain. Jika antara dua variable
independen memiliki korelasi yang spesifik misalnya, koefisien korelasi yang tinggi antara variable independen atau tanda koefisien
korelasi variable independen berbeda dengan tanda koefisien
korelasinya maka
dalam model
regresi tersebut
terdapat multikolinearitas.
3. Membuat persamaan regresi antarvariabel independen, jika koefisien regresinya
signifikan maka
dalam model
tersebut terdapat
multikolinearitas. Menghilangkan adanya multikolinearitas pada suatu model regresi
terdapat bermacam-macam cara antara lain: 1. Menghilangkan salah satu atau beberapa variable yang mempunyai
korelasi tinggi dari model regresi, jika ini dilakukan berarti melakukan kesalahan spesifik karena mengeluarkan variable independen dari
model regresi yang
secara teoritis variable tersebut dapat mempengaruhi variable dependen.
2. Menambah data, cara ini bermanfaat jika dapat dipastikan bahwa adanya multikolinearitas dalam model disebabkan oleh kesalahan
ssampel, biasanya digunakan pada penelitian yang menggunakan cross section atau data dari kuesioner.
3.5.3 Uji heteroskedastisitas