Pengujian Asumsi Klasik METODE PENELITIAN

41 akan diteliti dan teori-teori yang dapat digunakan untuk memecahkan masalah tersebut. b. Riset Kepusatakaan Riset kepustakaan dilakukan untuk mendapatkan teori yang mendukung penelitian ini serta hubungan antara variabel bebas dengan variabel terikat. c. Dokumentasi Pengumpulan data dengan menggunakan dan mempelajari catatan- catatan atau dokumen perusahaan.

3.4. Pengujian Asumsi Klasik

Persamaan regresi tersebut harus bersifat BLUE Best Linear Unbiased Estimator, artinya pengambilan keputusan tidak boleh bias. Untuk menghasilkan pengambilan keputusan yang BLUE maka harus dipenuhi diantaranya 4 asumsi dasar dalam regresi linear berganda yaitu: 1 Tidak ada autokorelasi 2 Tidak ada multikolinearity 3 Tidak boleh ada heterokedastisity. 4 Data berdistribusi normal Apabila salah satu dari keempat asumsi dasar tersebut dilanggar, maka persamaan regresi yang diperoleh tidak lagi bersifat BLUE, sehingga pengambilan keputusan melalui uji F dan uji t menjadi bias. Dibawah ini akan dijelaskan masing-masing asumsi dasar dari BLUE yaitu sebagai berikut: 42 1 Autokorelasi, didefinisikan sebagai `korelasi antara data observasi yang diurutkan berdasarkan urut waktu time series atau data yang diambil pada waktu tertentu cross-sectional, Gujarati 1997:201. Jadi dalam model regresi linear berganda diasumsikan tidak terdapat gejala autokorelasi. Artinya nilai residual pada waktu ke-t e t tidak boleh ada hubungan dengan nilai residual periode sebelumnya e t-1 . Identifikasi ada atau tidaknya gejala autokorelasi dapat dites dengan menghitung nilai Durbin Watson dengan persamaan Algifari, 1997:79: 2 t e 2 1 - t e - t e d n 1 t n 2 t      Keterangan, d = nilai durbin watson et = residual pada waktu ke t et-1 = residual pada perioode t-1 satu periode sebelumnya n = banyaknya data 2 Multikolinearity, artinya antara independent yang satu dengan yang lain dalam model regresi tidak saling berhubungan secara sempurna atau mendekati sempurna. Diagnosis atau dugaan secara sederhana terhadap adanya multikolinearitas didalam model regresi adalah sebagai berikut: 1 Koefisien determinasi berganda R square tinggi 2 Koefisien korelasi sederhana tinggi 43 3 Nilai F hit tinggi signifikan, sebagian besar atau bahkan seluruh koefisien regresi tidak signifikan Algifari, 1997:79. Dari diagnosis atau dugaan adanya multikolinearity tersebut maka perlu pembuktian atau identifikasi secara statistik ada atau tidaknya gejala multikolinearity yang dilakukan dengan cara menghitung variance inflation factor VIF, dengan rumus sebagai berikut Algifari, 1997:79: R 2 j - 1 1 VIF  VIF menyatakan tingkat `pembengkakan` variance, apabila VIF lebih besar dari 10 hal ini berarti terdapat multiklinearitas pada persamaan linear. Pembuktian dengan menghitung VIF ini tidak dapat diketahui dengan variabel bebas yang mana korelasi tersebut terjadi. Sehingga dalam menganalisis ada tidaknya multikolinearitas, peneliti juga akan membahas dengan korelasi matrik yaitu meng-korelasikan satu persatu antar variabel bebas. 3 Heterokedastisity, Varians semua variabel adalah konstan sama. Artinya, masing-masing varians gangguan untuk masing-masing pengamatan adalah konstan, yang berarti pula tidak terjadi hubungan antara variabel pengganggu dengan variabel bebasnya. Gejala yang terjadi sebaliknya yaitu heteroskedastisitas yang dapat diketahui dengan menggunakan Rank Spearman Gujarati 1997:148. 44 4 Normality Uji Normalitas digunakan untuk mengetahui apakah suatu data mengikuti sebaran normal atau tidak, untuk mengetahui apakah data tersebut mengikuti sebaran normal dapat dilakukan dengan berbagai metode diantaranya metode Kolmogorov Gujarati, 1997:150. Menurut Gujarati 1997:150, pedoman dalam pengambilan keputusan apakah distribusi data mengikuti distribusi normal adalah : 1. Jika nilai signifikan Nilai Probabilitasnya 0.05, maka didistribusinya tidak normal. 2. Jika nilai signifikan Nilai Probabilitasnya 0.05, maka didistribusinya adalah normal.

3.5. Teknik Analisis dan Uji Hipotesis