3.4.1.3 Uji Normalitas
Uji normalitas digunakan untuk mengetahui apakah suatu data mengikuti sebaran normal atau tidak. Untuk mengetahui apakah data
tersebut mengikuti sebaran normal dapat dilakukan dengan berbagai metode diantaranya adalah metode Kolmogrov Smirnov Sumarsono,2004
: 40 yang merupakan pedoman dalam mengambil keputusan apakah sebuah distribusi data mengikuti distribusi normal, berikut ini adalah
pedomannya : 1.
Jika nilai signifikan nilai probabilitasnya lebih kecil dari 5 , maka distribusi adalah tidak normal.
2. Jika nilai signifikan nilai probabilitasnya lebih besar dari 5 ,
maka distribusi adalah normal Sumarsono,2004 : 43.
3.4.1 Asumsi Klasik
Persamaan regresi harus bersifat BLUE Best Linier Unbiased Estimator
, artinya pengambilan keputusan melalui uji f dan uji t tidak boleh bias. Untuk menghasilkan keputusan yang BLUE maka harus
dipenuhi diantaranya tiga asumsi dasar.
Tiga asumsi dasar yang tidak boleh dilanggar oleh regresi linier berganda yaitu :
1. Tidak boleh ada autokorelasi
2. Tidak boleh ada multikolinieritas
3. Tidak boleh ada heterokedastisitas
Apabila salah satu dari ketiga asumsi dasar tersebut dilanggar, maka persamaan regresi yang diperoleh tidak lagi bersifat BLUE, sehingga
pengambilan keputusan melalui uji F dan uji t menjadi bias. 1.
Autokorelasi Autokorelasi dapat didefinisikan sebagai korelasi antara data observasi
yang diurutkan berdasarkan waktu data time series atau data yang diambil pada waktu tertentu Gujarati,1995 : 201.
Autokorelasi menunjukkan model regresi linier ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan pada periode t-1
sebelumnya. Model regresi yang baik adalah model regresi yang bebas dari autokorelasi. Adanya autokorelasi dalam regresi dapat diketahui
dengan menilai besaran Durbin Watson, tidak terjadi autokorelasi jika nilai Durbin Watson berada antara -2 hingga +2 Santoso, 2001 : 219.
2. Multikolinieritas
Sebelum melakukan analisis regresi berganda, perlu diperiksa beberapa aspek, salah satunya adalah tidak terdapat multikolinieritas atas
data dari variabel – variabel independen, maksudnya, “tidak adanya korelasi yang sempurna atau korelasi yang tidak sempurna tetapi relatif
tinggi pada variabel – variabel bebas”. Multikolinieritas sempurna akan mengakibatkan koefisien regresi tidak dapat ditentukan, serta standart
deviasi akan menjadi tak terhingga. Jika multikolinieritas kurang sempurna, maka koefisien regresi meskipun sehingga akan mempunyai
standar deviasi yang besar, yang berarti pula koefisien – koefisiennya tidak dapat ditaksir dengan mudah.
Beberapa cara untuk memeriksa multikolinieritas, yaitu:
Korelasi yang tinggi memberikan petunjuk adanya kolinieritas, tetapi tidak sebaliknya. Kolinieritas dapat saja terjadi walaupun korelasi
dalam keadaan rendah.
Dianjurkan untuk melihat koefisien korelasi parsial. Jika R
2
sangat tinggi tetapi masing – masing r
2
parsialnya rendah, berarti variabel – variabel bebas mempunyai korelasi yang tinggi dan paling tidak satu
diantaranya berlebihan. Tetapi, dapat saja R
2
tinggi dan masing – masing r
2
juga tinggi sehingga tak ada jaminan terjadinya multikolinieritas Umar, 2003 : 151.
3. Heteroskedastisitas
Salah satu syarat lain regresi linier adalah tidak terjadi heteroskedastisitas. Yang diharapkan adalah terjadinya homoskedastisitas.
Penting untuk menguji apakah dalam sebuah model regresi telah terjadi “ketidaksamaan varian dari residual” atas suatu pengamatan ke
pengamatan lainnya. Jika yang terjadi variannya tetap, maka disebut berada pada kondisi homoskedastitas Umar,2003 : 155.
3.5 Teknik Analisis