3.4.2 Uji Asumsi Klasik
Kemudian dilakukan uji asumsi klasik pada model regresi yang diperoleh untuk mengetahui apakah model yang didapatkan telah
memenuhi asumsi klasik yang ada. Karena dalam analisis regresi linier berganda terdapat beberapa asumsi yang harus dipenuhi agar persamaan
regresi yang dihasilkan akan valid jika digunakan untuk memprediksi nilai variabel dependen, Santosa dan Ashari, 2005 : 231.
Beberapa asumsi klasik tersebut menurut Sulaiman 2004 : 88 adalah sebagai berikut :
1. Homokedastisitas kesamaan varians Salah satu asumsi penting dalam model regresi linier berganda
adalah bahwa varians dan residual dari salah satu pengamatan ke pengamatan yang lain adalah tetap. Apabila asumsi tersebut tidak
terpenuhi berarti terjadi gejala heteroskedasitas. Salah satu cara untuk mendeteksi terjadi atau tidaknya heteroskedasitas adalah melihat ada
tidaknya pola tertentu pada grafik scatterpoli, dimana sumbu X adalah Y yang telah diprediksi dan sumbu Y adalah residual Y
Prediksi
– Y
Sesungguhnya
yang telah di studentized, Santosa, 2000 : 210. Adapun dasar pengambilan keputusan adalah sebagai berikut :
a. Jika terdapat pola tertentu, seperti titik-titik yang ada membentuk suatu pola tertentu yang teratur bergelombang, melebar, kemudian
menyempit, maka telah terjadi heteroskedasitas.
Hak Cipta © milik UPN Veteran Jatim : Dilarang mengutip sebagian atau seluruh karya tulis ini tanpa mencantumkan dan menyebutkan sumber
b. Jika tidak ada pola yang jelas serta titik-titik menyebar diatas dan dibawah angka 0 pada sumbu Y, maka tidak terjadi heteroskeditas.
2. Non-autokorelasi Pengujian terhadap asumsi ini bertujuan untuk mengetahui apakah
dalam sebuah model regresi terdapat korelasi antara dua data observasi yang disusun menurut urutan waktu seperti data times series atau
menurut urutan ruang atau tempat seperti data cross section. Jika terjadi korelasi berarti muncul gejala autokorelasi. Suatu model regresi
yang baik adalah regresi yang bebas dari gejala autokorelasi. Untuk mendeteksi ada atau tidaknya autokorelasi, dapat dilakukan pengujian
Durbin Watson DW dengan ketentuan sebagai berikut Trihendardi, 2005 : 98.
a. 1,65 DW 2,35 tidak terjadi autokorelasi. b. 1,21 DW 1,65 atau 2,35 DW 2,79 tidak dapat disimpulkan.
c. DW 1,21 atau DW 2,79 terjadi autokorelasi. 3. Non-multikolinearitas
Multikonieritas berarti terdapat hubungan korelasi di antara beberapa atau semua variabel independen dalam model regresi. Suatu
model regresi yang baik mengasumsikan bahwa tidak terjadi korelasi di antara variabel independen. Untuk mendeteksi ada atau tidaknya
multikolinearitas, dapat dilihat dari nilai VIF Variance Inflations Factor
dan tolerance. Suatu model regresi dikatakan bebas dari gejala multikolinearitas apabila nilai VIF 10 dan tolerance value 0,10.
Hak Cipta © milik UPN Veteran Jatim : Dilarang mengutip sebagian atau seluruh karya tulis ini tanpa mencantumkan dan menyebutkan sumber
Apabila dalam model regresi terjadi multikolinearitas, maka salah satu cara penanggulangannya adalah dengan mengeluarkan salah satu dari
variabel independent yang saling berkorelasi kuat Santosa S, 2000 : 207.
4. Normalitas Pengujian terhadap normalitas dilakukan untuk menguji
kenormalan distribusi data. Suatu data dikatakan terdistribusi secara normal apabila data mengikuti bentuk distribusi normal, yaitu memusat
pada nilai rata-rata medium Santosa dan Ashari, 2005 : 231. Salah satu cara untuk mengetahui bentuk distribusi data adalah dengan
menggunakan plot probabilitas normal normal probability plot. Dalam plot ini, masing-masing nilai pengamatan dipasangkan dengan
nilai harapan dari distribusi normal. Adapun dasar pengambilan keputusan menurut Sulaiman 2004 : 89
adalah sebagai berikut : a. Jika titik-titik data menyebar di sekitar garis diagonal, maka model
regresi memenuhi asumsi normalitas. b. Jika titik-titik data menyebar jauh dari garis diagonal, maka model
regresi tidak memenuhi asumsi normalitas.
3.4.3 Teknik Analisis Regresi Linier Berganda