Uji Asumsi Klasik Analisis dan Pembahasan

84

4.4. Analisis dan Pembahasan

4.4.1. Uji Asumsi Klasik

Sebelum kita uji persamaan regresi berganda sesuai dengan pengujian secara simultan maupun parsial, maka kita lihat terlebih dahulu apakah persamaan Y = β + β 1 X 1 + β 2 X 2 + β 3 X 3 + β 4 X 4 + β 5 X 5 yang diasumsikan tidak terjadi pengaruh antara variable bebas atau regresi bersifat BLUE, artinya koefisien regresi pada persamaan tersebut betul – betul linier tidak bisa.

1. Multikolinier

Multikolinieritas berarti ada hubungan linier yang “Sempurna” atau pasti di antara beberapa atau semua variabel independen dari model regresi. Dari dugaan adanya multikolinieritas tersebut maka perlu adanya pembuktian secara statistik ada atau tidaknya gejala multikolinier dengan cara menghitung Variance Inflation Factor VIF. VIF menyatakan tingkat “pembengkakan” varians. Apabila VIF lebih besar dari 10, hal ini berarti terdapat multikolinier pada persamaan regresi linier. 85 TABEL 5.0 Hasil Uji Multikolinearitas Variabel VIF | Ketentuan Kesimpulan Disiplin Kerja X 1 1,422 10 Non Multikolinear Motivasi Kerja X 2 2,427 10 Non Multikolinear Stres Kerja X 3 1,910 10 Non Multikolinear Sumber : Hasil Sumber Data Perhitungan SPSS Berdasarkan tabel diatas, diperoleh nilai VIF variabel bebas X 1 sebesar 1,422; X 2 sebesar 2,427 dan X 3 sebesar 1,910. Jadi dapat disimpulkan dalam persamaan tersebut tidak terjadi multikolinearitas pada semua variabel bebasnya.

2. Heterokedastisitas

Pada regresi linier nilai residual tidak boleh ada hubungan dengan variabel bebas X. Hal ini bisa diidentifikasikan dengan menghitung korelasi rank spearman antara residual dengan seluruh variabel bebas. Pembuktian adanya heterokedastisitas dilihat pada tabel dibawah : 86 TABEL 5.1 Tes Heterokedastisitas dengan Korelasi Rank Spearman Korelasi Variabel Taraf α signifikansi dari korelasi Rank Spearman | Taraf Uji Disiplin Kerja X 1 0,658 0,05 Motivasi Kerja X 2 0,918 0,05 Stres Kerja X 3 0,926 0,05 Sumber : Hasil Sumber Data Perhitungan SPSS Berdasarkan tabel diatas, diperoleh tingkat signifikansi koefisien korelasi rank spearman untuk variabel bebas X 1 sebesar 0,658; X 2 sebesar 0,918 dan X 3 sebesar 0,926 terhadap residual lebih besar dari 0,05 sehingga tidak mempunyai korelasi yang berarti antara nilai residual dengan variabel yang menjelaskan. Jadi dapat disimpulkan persamaan yang dihasilkan tidak terjadi heterokedastisitas.

3. Autokorelasi

Autokorelasi dapat didefinisikan sebagai “korelasi antara data observasi yang diurutkan berdasarkan urut waktu data time series atau data yang diambil pada waktu tertentu data cross-sectional” Gujarati, 1991:201. Untuk mengetahui ada tidaknya autokorelasi dapat dilihat pada tabel Durbin Watson. Kaidah keputusan dapat dijelaskan sebagai berikut : 87 1. Jika d lebih kecil daripada d L atau lebih besar daripada 4-d L , maka hipotesis nol ditolak yang berarti terdapat autokorelasi. 2. Jika d terletak antara d U dan 4-d U , maka hipotesis nol diterima yang berarti tidak ada autokorelasi. 3. Jika nilai d terletak antara d L dan d U atau antara 4-d L dan 4-d U maka uji Durbin-Watson tidak menghasilkan kesimpulan yang pasti, untuk nilai-nilai ini tidak dapat disimpulkan ada tidaknya autokorelasi di antara faktor-faktor penganggu. Untuk mengetahui ada tidaknya gejala autokorelasi dalam model penelitian maka perlu dilihat nilai DW tabel. Diketahui jumlah variabel bebas adalah 3 k=3 dan banyaknya data adalah n=21 sehingga diperoleh nilai DW tabel adalah sebesar d L = 1,026 dan d U = 1,669 88 Gambar 2. Kurva Statistik Durbin Watson Daerah Daerah Daerah Daerah Kritis Ketidak- Terima Ho Ketidak- Kritis pastian pastian Tolak Tidak ada Tolak Ho autokorelasi Ho 0 d L = 0,1,026 d U = 1,669 4-d U = 2,331 4-d L = 2,947 d 2,101 Sumber : Hasil Sumber Data Perhitungan SPSS Berdasarkan hasil analisis, diperoleh nilai DW tes sebesar 2,101 berada pada daerah antara 4-d U dan 4-d L yang berarti berada dalam daerah keragu-raguan. Maka dalam model regresi ini dianggap tidak terjadi gejala autokorelasi .

4.5. Teknik Analisis Regresi Linier Berganda