32
3.4. Teknik Analisis dan Uji Hipotesis
3.4.1. Uji Normalitas
Uji normalitas digunakan untuk mengetahui apakah suatu data mengikuti sebaran normal atau tidak. Untuk mengetahui apakah data
tersebut mengikuti sebaran normal atau tidak dapat dilakukan dengan berbagai metode diantaranya metode Kolmogorov Smirnov Sumarsono,
2002:40. Nilai signifikansi atau nilai probabilitas 0,05 maka distribusi adalah tidak normal simetris. Dan nilai signifikansi atau nilai probabilitas
0,05 maka distribusi adalah normal simetris. Uji normalitas bertujuan untuk menguji apakah dalam model
regresi, variabel terikat dan variabel bebas keduanya mempunyai distribusi normal ataukah tidak. Model regresi yang baik adalah memiliki distribusi
data normal atau mendekati normal. 3.4.2.
Uji Asumsi Klasik
Persamaan regresi tersebut harus bersifat BLUE Best Linier Unbiased Estimator
, artinya pengambilan keputusan uji F tidak boleh bias. Untuk menghasilkan keputusan yang BLUE maka harus dipenuhi tiga
asumsi dasar yang tidak boleh di langgar oleh regresi linier, yaitu : 1.
Tidak boleh ada autokorelasi 2.
Tidak boleh ada multikolinearitas 3.
Tidak boleh ada heteroskedastisitas
33
Apabila salah satu dari tiga asumsi dasar tersebut di langgar maka persamaan regresi yang diperoleh tidak lagi bersifat BLUE sehingga
pengambilan keputusan melalui uji t menjadi bias Gujarati, 1999 : 153 .
1. Autokorelasi
Autokorelasi merupakan korelasi hubungan yang terjadi antara anggota – anggota dari serangkaian pengamatan observasi yang
tersusun dalam rangkaian waktu atau rangkaian ruang. Adanya gejala autokorelasi menggambarkan varians populasinya dan hasil regresi tidak
dapat digunakan untuk menaksir nilai variabel dependen pada nilai variabel independen tertentu.
Uji autokorelasi bertujuan untuk menguji apakah dalam suatu model regresi linier ada korelasi antara korelasi pengganggu pada
periode t dengan kesalahan pada periode t-1 sebelumnya.Identifikasi ada tidaknya gejala autokorelasi dapat dilihat dari table Watson dengan
jumlah variable bebas k dan jumlah data n sehingga dL dan dU dapat diperoleh distribusi daerah keputusan ada atau tidaknya korelasi
Gujarati, 1999:201.
2. Multikolinearitas
Multikolinearitas merupakan satu keadaan dimana satu atau lebih variabel independent terdapat korelasi atau hubungan dengan variabel
independent lainnya.
34
Dari diagnosis atau dugaan adanya multikolinearitas tersebut maka perlu adanya pembuktian atau identifikasi secara statistik ada
tidaknya gejala multikolinearitas yang dapat dilakukan dengan cara menghitung Variance Inflaction Factor VIF. VIF menyatakan tingkat
“pembengkakan” variance, apabila nilai VIF lebih besar dari 10, hal itu
berarti terdapat multikolinearitas pada persamaan. Gujarati, 1999:200. 3.
Heteroskedastisitas
Uji heteroskedastisitas bertujuan menguji apakah dalam model regresi terjadi ketidaksamaan variance dari residual atau pengamatan ke
pengamatan lainnya. Kebanyakan data cross section mengandung situasi heteroskedastisitas, karena ini mengimpun data yang terwakili berbagai
ukuran kecil, sedang, dan besar. Salah satu cara untuk mendeteksi ada atau tidaknya
heteroskedastisitas adalah dengan cara menggunakan uji Rank Spearman yaitu dengan membandingkan antara residual dengan seluruh variabel
bebas. Mendeteksi adanya heteroskedastisitas adalah sebagai berikut : Gujarati, 1999 : 177
a. Nilai probabilitas 0,05 berarti bebas dari heteroskedastisitas b. Nilai probabilitas 0,05 berarti terkena heteroskedastisitas
3.4.3. Teknik Analisis