R
2
-adjusted dalam regresi berganda adalah nilai R
2
yang telah disesuaikan terhadap banyaknya variabel bebas dan banyaknya observasi. Koefisien
determinasi yang disesuaikan dirumuskan sebagai berikut :
R
2
-adjusted = 1 -
Dimana : R
2
-adjusted = koefisien determinasi yang disesuaikan
R
2
= koefisien determinasi n
= jumlah observasi k
= jumlah variabel bebas
4.5.1.4. Metode Uji Ekonometrik
Untuk memenuhi asumsi dalam analisis regresi agar hasil analisis tidak bias atau BLUE Best Linear Unbiased Estimate, maka dilakukan juga uji
normalitas, multikolinearitas, dan heteroskedastisitas.
4.5.1.4.1. Uji Normalitas
Salah satu pengujian yang dilakukan dalam persamaan regresi untuk menguji apakah nilai-nilai dari Y berdistribusi normal pada tiap nilai dari X
adalah uji normalitas. Model regresi dengan persamaan Y
i
= fX
1i
, X
2i
, ..., X
ki
+ ε
i
memiliki asumsi bahwa nilai ε
ij
yang dihasilkan berdistribusi normal. Untuk keperluan tersebut maka perlu dilakukan uji normalitas terhadap nilai ε
ij
yang dihasilkan oleh suatu model. Uji normalitas yang banyak digunakan adalah uji
Kolmogorov-Smirnov. Uji ini dilakukan dengan membandingkan nilai probabilitas distribusi teoritik dari jenis distribusi probabilitas yang diasumsikan
terhadap distribusi empirik. Selisih maksimum keduanya kemudian disebut
dengan Dmax. Nilai Dmax lalu dibandingkan dengan nilai kritis Kolmogorov- Smirnov untuk menentukan keputusan apakah satu set data mengikuti distribusi
yang diasumsikan atau tidak Nawari, 2010. Pengujian normalitas dapat dilakukan dengan uji Jarque-Bera JB. Uji JB
mengukur perbedaan antara Skewness kemenjuluran dan Kurtosis keruncingan data dari sebaran normal, serta memasukkan ukuran keragaman.
Hipotesis yang digunakan : H
: Error term menyebar normal H
1
: Error term tidak menyebar normal Uji Statistik yang digunakan :
JB = Dimana :
S = Kemenjuluran
K = Keruncingan
k = Banyaknya koefisien penduga
N = Banyaknya data pengamatan
Kaidah pengujian : Jika JB χ
2 2
maka tolak H0 JB χ
2 2
maka terima H0 Jika dilakukan perhitungan dengan komputer maka dapat dilihat nilai
probabilitas pada output perhitungannya. Apabila nilai probabilitasnya lebih kecil dari α maka artinya tolak H
. Sebaliknya jika nilai probabilitas lebih besar dari α maka artinya terima H
.
4.5.1.4.2. Uji Multikolinearitas
Istilah multikolinearitas didefinisikan sebagai hubungan secara linier diantara beberapa atau semua peubah penjelas dalam model regresi. Secara
matematis dinyatakan sebagai : γ
1
X
1i
+ γ
2
X
2i
+ ... + γ
k
X
ki
= 0; γ
1,
γ
2,
..., γ
k
= konstanta yang tidak semuanya bernilai nol untuk i = 1, 2, ..., k. Adanya
multikolinearitas menyebabkan peubah penjelas X tidak memberikan informasi yang baru bagi peubah respon Y. Selain itu, adanya multikolinearitas
menyebabkan koefisien regresi tidak dapat ditentukan secara unik atau tunggal. Ada beberapa cara yang dapat digunakan untuk mendeteksi ada tidaknya
multikolinearitas dalam model regresi, diantaranya : 1. Koefisien korelasi antar peubah penjelas X
i
Cara paling mudah dan sederhana untuk mendeteksi multikolinearitas adalah dengan melihat koefisien antara dua peubah penjelas. Adanya
kolinearitas seringkali ditunjukkan jika nilai R cukup besar terletak pada selang -1
≤ R ≤ -0,5 atau 0,5 ≤ R ≤ 1. 2. VIF Variance Inflation Factor
VIF didefinisikan sebagai : VIFi =
dimana R
i 2
merupakan koefisien determinasi berganda dari peubah penjelas Xi dengan seluruh peubah penjelas lainnya. Jika nilai VIFi 10 maka
diindikasikan bahwa telah terjadi multikolinearitas Darmanto, 2010.
4.5.1.4.3. Uji Heteroskedastisitas