Uji Normalitas Uji Multikolinearitas

R 2 -adjusted dalam regresi berganda adalah nilai R 2 yang telah disesuaikan terhadap banyaknya variabel bebas dan banyaknya observasi. Koefisien determinasi yang disesuaikan dirumuskan sebagai berikut : R 2 -adjusted = 1 - Dimana : R 2 -adjusted = koefisien determinasi yang disesuaikan R 2 = koefisien determinasi n = jumlah observasi k = jumlah variabel bebas

4.5.1.4. Metode Uji Ekonometrik

Untuk memenuhi asumsi dalam analisis regresi agar hasil analisis tidak bias atau BLUE Best Linear Unbiased Estimate, maka dilakukan juga uji normalitas, multikolinearitas, dan heteroskedastisitas.

4.5.1.4.1. Uji Normalitas

Salah satu pengujian yang dilakukan dalam persamaan regresi untuk menguji apakah nilai-nilai dari Y berdistribusi normal pada tiap nilai dari X adalah uji normalitas. Model regresi dengan persamaan Y i = fX 1i , X 2i , ..., X ki + ε i memiliki asumsi bahwa nilai ε ij yang dihasilkan berdistribusi normal. Untuk keperluan tersebut maka perlu dilakukan uji normalitas terhadap nilai ε ij yang dihasilkan oleh suatu model. Uji normalitas yang banyak digunakan adalah uji Kolmogorov-Smirnov. Uji ini dilakukan dengan membandingkan nilai probabilitas distribusi teoritik dari jenis distribusi probabilitas yang diasumsikan terhadap distribusi empirik. Selisih maksimum keduanya kemudian disebut dengan Dmax. Nilai Dmax lalu dibandingkan dengan nilai kritis Kolmogorov- Smirnov untuk menentukan keputusan apakah satu set data mengikuti distribusi yang diasumsikan atau tidak Nawari, 2010. Pengujian normalitas dapat dilakukan dengan uji Jarque-Bera JB. Uji JB mengukur perbedaan antara Skewness kemenjuluran dan Kurtosis keruncingan data dari sebaran normal, serta memasukkan ukuran keragaman. Hipotesis yang digunakan : H : Error term menyebar normal H 1 : Error term tidak menyebar normal Uji Statistik yang digunakan : JB = Dimana : S = Kemenjuluran K = Keruncingan k = Banyaknya koefisien penduga N = Banyaknya data pengamatan Kaidah pengujian : Jika JB χ 2 2 maka tolak H0 JB χ 2 2 maka terima H0 Jika dilakukan perhitungan dengan komputer maka dapat dilihat nilai probabilitas pada output perhitungannya. Apabila nilai probabilitasnya lebih kecil dari α maka artinya tolak H . Sebaliknya jika nilai probabilitas lebih besar dari α maka artinya terima H .

4.5.1.4.2. Uji Multikolinearitas

Istilah multikolinearitas didefinisikan sebagai hubungan secara linier diantara beberapa atau semua peubah penjelas dalam model regresi. Secara matematis dinyatakan sebagai : γ 1 X 1i + γ 2 X 2i + ... + γ k X ki = 0; γ 1, γ 2, ..., γ k = konstanta yang tidak semuanya bernilai nol untuk i = 1, 2, ..., k. Adanya multikolinearitas menyebabkan peubah penjelas X tidak memberikan informasi yang baru bagi peubah respon Y. Selain itu, adanya multikolinearitas menyebabkan koefisien regresi tidak dapat ditentukan secara unik atau tunggal. Ada beberapa cara yang dapat digunakan untuk mendeteksi ada tidaknya multikolinearitas dalam model regresi, diantaranya : 1. Koefisien korelasi antar peubah penjelas X i Cara paling mudah dan sederhana untuk mendeteksi multikolinearitas adalah dengan melihat koefisien antara dua peubah penjelas. Adanya kolinearitas seringkali ditunjukkan jika nilai R cukup besar terletak pada selang -1 ≤ R ≤ -0,5 atau 0,5 ≤ R ≤ 1. 2. VIF Variance Inflation Factor VIF didefinisikan sebagai : VIFi = dimana R i 2 merupakan koefisien determinasi berganda dari peubah penjelas Xi dengan seluruh peubah penjelas lainnya. Jika nilai VIFi 10 maka diindikasikan bahwa telah terjadi multikolinearitas Darmanto, 2010.

4.5.1.4.3. Uji Heteroskedastisitas