31
b Nilai Tolerance tidak kurang dari 0.10, maka model regresi bebas dari multikolinearitas.
33
3 Uji Autokorelasi
Bertujuan untuk menguji apakah suatu model regresi linier ada korelasi antara kesalahan penggangu pada periode t dengan kesalahan pada periode
sebelumnya t-
1
.
34
Autokorelasi didefinisikan terjadinya korelasi antara data pengamatan sebelumnya, dengan kata lain bahwa munculnya suatu data
dipengaruhi oleh data sebelumnya. Jika terjadi korelasi berarti ada masalah autokorelasi. Model regresi yang baik adalah yang bebas dari autokorelasi.
Untuk mendeteksi terjadi autokorelasi atau tidak dapat dilihat melalui nilai Durbin Watson DW yang bisa dijadikan patokan untuk mnegambil
keputusan adalah: a Angka D-W di bawah
– 2, berarti ada autokorelasi positif.
b Angka D-W diantara – 2 sampai dengan + 2, bearti tidak terjadi
autokorelasi.
33
Singgih Santoso, Buku Latihan SPSS Statistik Parametrik, Jakarta: PT Elex Media Komputindo, 2000, h. 219.
34
Imam Ghozali, Aplikasi Analisis Multivariate dengan Program SPSS, Semarang: UNDIP, 2006, h. 95.
32
c Angka D-W + 2, bearti ada autokorelasi negatif.
35
Jika ada masalah autokorelasi, maka model regresi yang seharusnya signifikan lihat angka F dan signifikansinya, menjadi tidak layak untuk
dipakai. Autokorelasi dapat diatasi dengan berbagai cara antara lain dengan melakukan transformasi data dan menambah data observasi.
36
4 Uji Heterokedasitas
Uji heterokedasitas ini untuk menguji apakah pada model regresi terjadi ketidaksamaan varians dari residual suatu pengamatan ke pengamatan lain.
Residual adalah perbedaan antara nilai-nilai variabel terikat yang sebenarnya dengan nilai-nilai yang diperkirakan Y-
Ŷ.
37
Jika varians residual dari suatu pengamatan ke pengamatan lain tetap disebut homokedasitas. Dan jika
varians berbeda disebut heterokedasitas. Model regresi yang baik adalah tidak terjadi heterokedasitas. Heterokedasitas adalah suatu keadaan dimana
35
Singgih Santoso, Buku Latihan SPSS Statistik Parametrik, Jakarta: PT Elex Media Komputindo, 2000, h. 219.
36
M. Iqbal Hasan, Pokok-pokok Materi Statistik 2: Statistik Inferensif, Jakarta: PT Bumi Aksara, 2003, Ed. Kedua, Cet. Kedua, h. 290.
37
Douglas. A Lind, dkk. Penerjemah: Chriswan Sungkono, Teknik-teknik Statistika dalam Bisnis dan Ekonomi Menggunakan Kelompok Data Global, ed 13, Buku 2, Jakarta:Salemba Empat,
2007, h. 180.
33
varians dari kesalahan pengganggu tidak konstan untuk semua nilai variabel independen.
38
Salah satu cara untuk mendeteksi ada atau tidaknya heterokedasitas yaitu dengan melihat grafik plot antara nilai prediksi variabel terikat ZPRED and
residualnya SRESID. Deteksi ada tidaknya heterokedasitas dapat dilakukan dengan melihat ada tidaknya pola tertentu pada grafik scatter plot antara
SRESID dan ZPRED di mana sumbu Y adalah Y yang telah diprediksi, dan sumbu X adalah residual Y prediksi
– Y sesungguhnya yang telah di- studentized. Dasar pengambilan keputusan:
39
1 Jika ada pola tertentu, seperti titik-titik poin-poin yang ada membentuk suatu pola tertentu yang teratur bergelombang, melebar
kemudian menyempit maka telah terjadi heterokedasitas. 2 Jika tidak ada pola tertentu yang jelas serta titik-titiknya menyebar di
atas dan di bawah angka 0 nol pada sumbu Y, maka tidak terjadi heterokedasitas.
38
J. Supranto, Statistik Teori dan Aplikasi, Jakarta: Erlangga, 2000, h. 273.
39
Imam Ghozali, Aplikasi Analisis Multivariate dengan Program SPSS, Semarang: UNDIP, 2006, h. 69.
34
c. Uji Hipotesis 1 Uji Signifikansi Simultan Uji F
Uji F dilakukan untuk melihat kemaknaan dari hasil model regresi tersebut. Uji F dilakukan untuk membuktikan apakah variabel-variabel bebas
X berpengaruh terhadap variabel terikat Y. Jika nilai signifikansi lebih kecil dari alpha yang digunakan yaitu pada
α = 5 = 0.05, menunjukkan bahwa Ho ditolak dan Ha diterima yang berarti bahwa variabel bebas mempunyai pengaruh secara signifikan terhadap variabel
terikatnya secara simultan bersama-sama. Jika nilai signifikansi lebih besar
dari alpha yang digunakan yaitu pada α = 5 = 0.05, menunjukkan bahwa Ho diterima dan Ha ditolak yang berarti
bahwa variabel bebas tidak mempunyai pengaruh secara signifikan terhadap variabel terikat secara simultan bersama-sama.
40
2 Uji Signifikansi Parsial Uji t
Uji t dipergunakan untuk menganalisis pengaruh variabel bebas terhadap variabel terikat secara parsial. Uji t dipergunakan untuk mengetahui apakah
variabel bebas secara parsial individual berpengaruh secara signifikan terhadap variabel terikat. Penilaian uji t adalah sebagai berikut:
40
Bhuono Agung Nugroho, Strategi Jitu Memilih Metode Statistika Penelitian dengan Menggunakan SPSS, Yogyakarta: CV. Andi Offset, 2005, h.54.
35
a. Jika signifikansi lebih kecil dari alpha yang digunakan yaitu pada α = 5 =
0.05 , maka Ho ditolak dan Ha diterima, yang berarti bahwa variabel bebas berpengaruh signifikan terhadap variabel terikat secara parsial.
b. Jika signifikansi lebih besar dari alpha yang digunakan yaitu pada α = 5 =
0.05 , maka Ho diterima dan Ha ditolak, yang berarti bahwa secara parsial tidak ada pengaruh yang signifikan antara variabel bebas terhadap variabel
terikat. Juga dipergunakan pada alpha 10 = 0.1 dimana batas ini masih diperbolehkan.
41
d. Analisis Korelasi
Analisis korelasi berguna untuk menentukan suatu besaran yang menyatakan bagaimana kuat hubungan suatu variabel dengan variabel yang lain.
Jadi tidak mempersoalkan apakan suatu variabel tertentu tergantung kepada variabel lain. Simbol dari besaran korelasi adalah r yang disebut koefisien
korelasi sedangkan simbol parameternya ρ dibaca rho. Nilai koefisien korelasi berkisar antara
– 1 sampai + 1 yang kriteria pemanfaatannya dijelaskan sebagai berikut:
42
41
Bhuono Agung Nugroho, Strategi Jitu Memilih Metode Statistika Penelitian dengan Menggunakan SPSS, Yogyakarta: CV. Andi Offset, 2005, h.53.
42
Husein Umar, Metode Penelitian untuk Skripsi dan Tesis Bisnis, Jakarta: PT RajaGrafindo Persada, 2004, h. 104.
36
1 Jika nilai r 0 artinya telah terjadi hubungan yang linier positif, yaitu makin besar nilai variabel X independen makin besar pula nilai
variabel Y dependen, atau makin kecil nilai variabel X independen maka makin kecil pula nilai variabel Y dependen.
2 Jika nilai r 0 artinya telah terjadi hubungan yang linier negatif, yaitu makin kecil nilai variabel X independen maka makin besar nilai
variabel Y dependen, atau makin besar nilai variabel X independen maka makin kecil nilai variabel Y dependen.
3 Jika nilai r = 0 artinya tidak ada hubungan sama sekali antara variabel X independen dengan variabel Y dependen.
4 Jika nilai r = 1 atau r = - 1 telah terjadi hubungan linier sempurna yaitu berupa garis lurus, sedangkan untuk nilai r yang makin mengarah ke angka
0, maka garis makin tidak lurus. Untuk menghitung koefisien korelasi, rumus yang digunakan adalah r-
product moment, yaitu: r
xy
= n Σ XiYi – ΣX iΣYi
√n ΣXi
2
– ΣXi
2
√nΣYi
2
– ΣYi
2
Untuk mengetahui tingkat kekuatan hubungan antara variabel bebas dan variabel terikat, dipergunakan tabel interpretasi r-product moment.