Uji Normalitas Uji Multikolinieritas

3.5.1 Uji Normalitas

Bertujuan untuk menguji apakah dalam metode regresi variabel terikat dan variabel bebas keduanya mempunyai distribusi normal atau tidak. Mode regresi yang baik adalah memiliki distribusi normal atau mendekati normal. Cara untuk mengetahui normalitas adalah dengan melihat normal probably plot yang membandingkan distribusi kumulatif dari distribusi normal. Distribusi normal akan membentuk suatu garis lurus diagonal dan ploting data akan dibandingkan dengan garis diagonal. Jika distribusi data adalah normal maka garis yang menggambarkan data sesungguhnya akan mengikuti garis diagonalnya. Untuk keperluan analisis data selanjutnya, maka akan lebih mudah dan lancar bila variabel – variabel yang diteliti mengikuti distribusi tertentu. Dari teori kemungkinan apabila populasi yang diteliti berdistribusi normal maka konklusi bisa diterima, tetapi apabila populasi tidak berdistribusi normal maka konklusi berdasarkan teori tidak berlaku. Oleh sebab itu, sebelum mengambil keputusan berdasarkan teori tersebut perlu diperiksa terlebih dahulu normalitas distribusinya, apakah pada taraf signifikan tertentu atau tidak. Pengujian normalitas dimaksudkan untuk mengetahui normal tidaknya model regresi yang diperoleh dengan uji Kolmogorov Smirnov atas data unstandardized residual dan dasar pengambilan keputusan berdasarkan probabilitas. Jika probabilitas 0,05 maka model regresi berdistribusi normal. Disamping menggunakan uji Kolmogorov Smirnov analisis kenormalan data ini juga didukung dari Plot Of Regression Standardized Residual. Apabila grafik yang diperoleh dari output SPSS ternyata diperoleh titik – titik yang mendekati garis diagonal, dapat disimpulkan bahwa model regresi berdistribusi normal.

3.5.2 Uji Multikolinieritas

Uji multikolinearitas, artinya antara variable independen yang dengan variable independen yang dalam model regresi saling berhubungan secara sempurna atau mendekati sempurna Algifari, 2008:84. Konsekuensi yang sangat penting bagi model regresi yang mengandung multikolinearitas adalah bahwa kesalahan standard estimasi akan cenderung meningkat dengan bertambahnya variable independen, tingkat signifikasi yang digunakan untuk menolak hipotesis nol akan semakin besar, dan probabilitas mnerima hipotesis yang salah kesalahan ß juga akan semakin besar. Akibatnya, model regresi yang diperoleh tidak sahih valid untuk menaksir nilai variabel independen. Diagnosis secara sederhana terhadap adanya multikolinearitas di dalam model regresi adalah sebagai berikut: 1. Melalui nilai t hitung , R 2 , F. R 2 tinggi nilai F ratio tinggi sedangkan sebagian besar atau bahkan seluruh koefisien regresi tidak signifikan nilai t hitung sangat rendah mungkin terdapat multikolinearitas dalam model tersebut. 2. Menentukan koefisien korelasi antara variable independen yang satu dengan variable independen yang lain. Jika antara dua variable independen memiliki korelasi yang spesifik misalnya, koefisien korelasi yang tinggi antara variable independen atau tanda koefisien korelasi variable independen berbeda dengan tanda koefisien korelasinya maka dalam model regresi tersebut terdapat multikolinearitas. 3. Membuat persamaan regresi antarvariabel independen, jika koefisien regresinya signifikan maka dalam model tersebut terdapat multikolinearitas. Menghilangkan adanya multikolinearitas pada suatu model regresi terdapat bermacam-macam cara antara lain: 1. Menghilangkan salah satu atau beberapa variable yang mempunyai korelasi tinggi dari model regresi, jika ini dilakukan berarti melakukan kesalahan spesifik karena mengeluarkan variable independen dari model regresi yang secara teoritis variable tersebut dapat mempengaruhi variable dependen. 2. Menambah data, cara ini bermanfaat jika dapat dipastikan bahwa adanya multikolinearitas dalam model disebabkan oleh kesalahan ssampel, biasanya digunakan pada penelitian yang menggunakan cross section atau data dari kuesioner.

3.5.3 Uji heteroskedastisitas