84
4.4. Analisis dan Pembahasan
4.4.1. Uji Asumsi Klasik
Sebelum kita uji persamaan regresi berganda sesuai dengan pengujian secara simultan maupun parsial, maka kita lihat terlebih dahulu
apakah persamaan Y = β
+ β
1
X
1
+ β
2
X
2
+ β
3
X
3
+ β
4
X
4
+ β
5
X
5
yang diasumsikan tidak terjadi pengaruh antara variable bebas atau regresi
bersifat BLUE, artinya koefisien regresi pada persamaan tersebut betul – betul linier tidak bisa.
1. Multikolinier
Multikolinieritas berarti ada hubungan linier yang “Sempurna” atau pasti di antara beberapa atau semua variabel independen dari
model regresi. Dari dugaan adanya multikolinieritas tersebut maka perlu
adanya pembuktian secara statistik ada atau tidaknya gejala multikolinier dengan cara menghitung Variance Inflation Factor
VIF. VIF menyatakan tingkat “pembengkakan” varians. Apabila VIF lebih besar dari 10, hal ini berarti terdapat multikolinier pada
persamaan regresi linier.
85
TABEL 5.0 Hasil Uji Multikolinearitas
Variabel VIF |
Ketentuan Kesimpulan
Disiplin Kerja X
1
1,422 10
Non Multikolinear Motivasi Kerja X
2
2,427 10 Non
Multikolinear Stres Kerja X
3
1,910 10
Non Multikolinear
Sumber : Hasil Sumber Data Perhitungan SPSS
Berdasarkan tabel diatas, diperoleh nilai VIF variabel bebas X
1
sebesar 1,422; X
2
sebesar 2,427 dan X
3
sebesar 1,910. Jadi dapat disimpulkan dalam persamaan tersebut tidak terjadi multikolinearitas
pada semua variabel bebasnya.
2. Heterokedastisitas
Pada regresi linier nilai residual tidak boleh ada hubungan dengan variabel bebas X. Hal ini bisa diidentifikasikan dengan
menghitung korelasi rank spearman antara residual dengan seluruh variabel bebas. Pembuktian adanya heterokedastisitas dilihat pada
tabel dibawah :
86
TABEL 5.1 Tes Heterokedastisitas dengan Korelasi Rank Spearman Korelasi
Variabel Taraf α signifikansi dari
korelasi Rank Spearman | Taraf Uji
Disiplin Kerja X
1
0,658 0,05
Motivasi Kerja X
2
0,918 0,05
Stres Kerja X
3
0,926 0,05
Sumber : Hasil Sumber Data Perhitungan SPSS
Berdasarkan tabel diatas, diperoleh tingkat signifikansi koefisien korelasi rank spearman untuk variabel bebas X
1
sebesar 0,658; X
2
sebesar 0,918 dan X
3
sebesar 0,926 terhadap residual lebih besar dari 0,05 sehingga tidak mempunyai korelasi yang berarti antara
nilai residual dengan variabel yang menjelaskan. Jadi dapat disimpulkan persamaan yang dihasilkan tidak terjadi
heterokedastisitas.
3. Autokorelasi
Autokorelasi dapat didefinisikan sebagai “korelasi antara data observasi yang diurutkan berdasarkan urut waktu data time series
atau data yang diambil pada waktu tertentu data cross-sectional” Gujarati, 1991:201. Untuk mengetahui ada tidaknya autokorelasi
dapat dilihat pada tabel Durbin Watson. Kaidah keputusan dapat dijelaskan sebagai berikut :
87
1. Jika d lebih kecil daripada d
L
atau lebih besar daripada 4-d
L
, maka hipotesis nol ditolak yang berarti terdapat autokorelasi.
2. Jika d terletak antara d
U
dan 4-d
U
, maka hipotesis nol diterima yang berarti tidak ada autokorelasi.
3. Jika nilai d terletak antara d
L
dan d
U
atau antara 4-d
L
dan 4-d
U
maka uji Durbin-Watson tidak menghasilkan kesimpulan yang pasti, untuk nilai-nilai ini tidak dapat disimpulkan ada tidaknya
autokorelasi di antara faktor-faktor penganggu. Untuk mengetahui ada tidaknya gejala autokorelasi dalam model
penelitian maka perlu dilihat nilai DW tabel. Diketahui jumlah variabel bebas adalah 3 k=3 dan banyaknya data adalah n=21
sehingga diperoleh nilai DW tabel adalah sebesar d
L
= 1,026 dan d
U
= 1,669
88
Gambar 2. Kurva Statistik Durbin Watson
Daerah Daerah Daerah Daerah Kritis Ketidak- Terima Ho Ketidak- Kritis
pastian pastian Tolak Tidak ada Tolak
Ho autokorelasi Ho 0 d
L
= 0,1,026 d
U
= 1,669 4-d
U
= 2,331 4-d
L
= 2,947 d
2,101
Sumber : Hasil Sumber Data Perhitungan SPSS
Berdasarkan hasil analisis, diperoleh nilai DW tes sebesar
2,101 berada pada daerah antara 4-d
U
dan 4-d
L
yang berarti berada dalam daerah keragu-raguan. Maka dalam model regresi ini dianggap
tidak terjadi gejala autokorelasi .
4.5. Teknik Analisis Regresi Linier Berganda