Uji Asumsi Klasik Teknik Analisis dan Pengujian Hipotesis

Linier Unbiased Estimator . Pengolahan data pada penelitian ini berdasarkan data sekunder dan diolah oleh program SPSS for windows 14.

3.4.1 Uji Asumsi Klasik

Persamaan regresi yang didapat perlu diuji untuk memenuhi kriteria statistika, dalam arti tidak terjadi penyimpangan yang cukup serius dari asumsi-asumsi yang diterapkan, agar hasil estimasi tidak menyimpang dan memberikan informasi yang sesuai dengan keadaan data. Persamaan linier berganda harus bersifat BLUE Best Linier Unbiased Estimator, artinya pengambilan keputusan melalui uji hipotesis tidak boleh bias. Untuk menghasilkan keputusan yang BLUE maka harus dipenuhi diantaranya 4 empat asumsi dasar klasik yaitu : 1. Uji Normalitas 2. Uji Multikolinearitas 3. UJi Heteroskedastisitas 4. Uji Autokorelasi Apabila salah satu dari ketiga asumsi tersebut dilanggar, maka persamaan regresi yang diperoleh tidak lagi bersifat BLUE. Adapun penjabaran dari asumsi dasar klasik adalah sebagai berikut : 1. Uji Normalitas Pengujian normalitas dilakukan untuk menguji apakah dalam sebuah model regresi variabel independen, variabel dependen dan keduanya mempunyai distribusi normal atau tidak. Apabila data menyebar disekitar garis diagonal dan mengikuti diagonal, maka model tersebut memenuhi asumsi normalitas. Jika data menyebar jauh Hak Cipta © milik UPN Veteran Jatim : Dilarang mengutip sebagian atau seluruh karya tulis ini tanpa mencantumkan dan menyebutkan sumber dari garis diagonal atau tidak mengikuti arah garis diagonal maka model regresi tidak memenuhi asumsi normalitas. 2. Uji Multikolinearitas Menurut Nachrowi 2006 : 94 Uji Multikolinearitas digunakan untuk mendeteksi ada tidaknya korelasi antar variabel independen dalam model regresi. Adanya korelasi yang terjadi antar variabel Independen berarti dalam model regresi terdapat problem multikolinearitas. Indikasi terdapat masalah multikolinearitas dapat kita lihat dari kasus kasus sebagai berikut : a. Nilai R 2 yang tinggi signifikan, namun nilai standar error dan tingkat signifikansi masing – masing variabel sangat rendah. b. Nilai koefisien variabel tidak sesuai dengan hipotesis, misalnya variabel yang seharusnya memiliki pengaruh positif nilai koefisien positif, ditunjukkan dengan nilai negatif. Suatu model regresi bebas dari problem multikolinearitas jika : a. Mempunyai angka tolerance mendekati 1 b. Mempunyai besaran Variance Inflation Factor VIF tidak lebih besar dari 10. Adapun rumus untuk menghitung VIF adalah : VIF= Nilai R dapat dihitung dengan rumus : R 2 = Jumlah kuadrat regresi Jumlah kuadrat total Hak Cipta © milik UPN Veteran Jatim : Dilarang mengutip sebagian atau seluruh karya tulis ini tanpa mencantumkan dan menyebutkan sumber 3. Uji heteroskedastisitas Uji heteroskedastisitas bertujuan untuk menguji apakah dalam regresi terjadi ketidaksamaan varians dari residual satu pengamatan kepengamatan yang lain. Menurut Nachrowi 2006 : 109 Model regresi yang baik adalah tidak terjadi heteroskedastisitas, hal ini berarti varians dari residual satu pengamatan ke pengamatan yang lain mengalami ketidaksamaan. Untuk mendeteksi ada atau tidaknya heteroskedastisitas salah satunya adalah dengan melihat grafik plot. Jika terjadi pola tertentu, sepeti titik-titik yang membentuk pola tertentu yang teratur maka mengindikasikan telah terjadi heteroskedastisitas. Jika tidak ada pola yang jelas, serta titik-titik menyebar diatas dan di bawah angka 0 pada sumbu y, maka tidak terjadi heteroskedastisitas. 4. Uji autokorelasi Autokorelasi merupakan suatu keadaan dimana kesalahan pengganggu pada kasus yang lain. Autokorelasi muncul karena observasi yang berurutan sepanjang waktu berkaitan satu sama lain. Menurut Nachrowi 2006 : 190 autokorelasi merupakan korelasi antara data observasi yang diurutkan berdasarkan urut waktu date time series atau data yang diambil pada waktu tertentu data cross sectional dan menyimpulkan dalam model regresi linier tidak terdapat gejala autokorelasi, artinya nilai residual Y observasi – Y prediksi pada waktu ke – t e t tidak boleh ada hubungan dengan nilai residual periode sebelumnya e t – 1. Identifikasi ada atau tidaknya gejala autokorelasi dapat di tes dengan menghitung nilai Durbin Watson d tes dengan persamaan rumus sebagai berikut : Hak Cipta © milik UPN Veteran Jatim : Dilarang mengutip sebagian atau seluruh karya tulis ini tanpa mencantumkan dan menyebutkan sumber t=N ∑e t -e t -1² t=2 d= t=N ∑e t ² t=1 Keterangan : d = Nilai Durbin Watson e t = Residual pada waktu ke – t e t -1 = Residual pada waktu ke t – 1 satu periode sebelumnya N = Banyaknya data Setelah diperoleh nilai Durbin Watson, maka nilai ini dibandingkan dengan dL dan dU yang ada dalam tabel dengan ketentuan : 1. Apabila 4 - dW dU batas bawah Ho diterima : berarti tidak ada autokorelasi pada model 2. Apabila 4 - dW dL batas atas Ho ditolak : berarti ada autokorelasi pada model 3. Apabila dL 4 - dW dU Uji ini hasilnya tidak menghasilkan kesimpulan yang pasti konklusif, sehingga tidak ditentukan apakah ada autokorelasi dalam model tersebut.

3.4.2 Uji Hipotesis