56 berra
. Bila probabilitas lebih besar dari 5 , maka data terdistribusi normal. Wing Wahyu, 2011 : 5.37-5.39
b. Uji Multikolinieritas
Multikoliniearitas adalah kondisi adanya hubungan linier antarvariabel independen. Karena melibatkan beberapa variabel independen, maka
multikolinieartias tidak akan terjadi pada persamaan regresi sederhana yang terdiri atas satu variabel dependen dan satu variabel independen. Wing Wahyu,
2011 : 5.1
Menurut Singgih Santoso 2010:206, Multikoliniearitas mengandung arti bahwa antar variabel independen yang terdapat dalam model memiliki
hubungan yang sempurna atau mendekati sempurna koefisien korelasinya tinggi atau bahkan 1. Gery Wibisono, 2013 : 65
Untuk mengetahui gejala multikolinearitas dapat dilihat dari nilai correlation matrix. Apabila hasil dari correlation matrix barada diantara 0,8
hingga 1, maka data terindikasi gejala multikolinearitas. Apabila hasilnya dibawah 0,8 maka data terbebas gejala multikolinearitas wing wahyu,
2011:5.5.
Indikasi multikoliniearitas ditunjukan dengan beberapa informasi antara lain :
1 Nilai
R
2
tinggi, tetapi variabel independen banyak yang yang tidak
signifikan.
2 Dengan menghitung koefisien korelasi antarvariabel independen,apabila
koefisien rendah maka tidak terdapat multikoliniearitas.
57 3 Dengan melakukan regresi auxiliary. Yaitu regresi yang dapat digunakan
untuk mengetahui hubungan antara dua atau lebih variabel independen yang secara bersama-sama mempengaruhi satu variabel independen
lainnya.
Sedangkan alternative menghilangkan multikoliniearitas antara lain bisa dengan menambahkan data penelitian bila memungkinkan, karena masalah
multikoliniearitas biasanya muncul karena jumlah observasi yang sedikit. Selain itu dapat dengan menghilangkan salah satu variabel independen terutama yang
memiliki hubungan linier yang kuat dengan variabel lain. Namun jika tidak mungkin dihilangkan maka tetap harus dipakai. Selanjutnya bisa dengan
mentransformasikan salah satu atau beberapa variabel dengan melakukan diferensiasi. Wing Wahyu, 2011 : 5.7-5.8
c. Uji Heteroskedastisitas
Asumsi dalam model regresi adalah dengan memenuhi 1 residual memiliki nilai rata-rata nol, 2 residual memiliki varian yang konstan,dan 3
residual suatu observasi tidak saling berhubungan dengan residual observasi lainnya sehingga menghasilkan estimator yang BLUE. Apabila asumsi 1
terpenuhi yang terpengaruh hanyalah slope estimator dan ini tidak membawa koefisien serius dalam analisis ekonometrik. Sedangkan jika asumsi 2 dan 3
tidak terpenuhi, maka akan berdampak pada prediksi dengan model yang dibangun. Dalam kenyataannya, nilai residual sulit memiliki varian yang
58 konstan. Hal ini sering terjadi pada data yang bersifat cross section dibanding
time series. Wing Wahyu, 2011 : 5.8
Ada beberapa metode yang dapat digunakan untuk mengidentifikasi ada tidaknya masalah heterokedastisitas. Diantaranya dapat menggunakan Uji
White. Untuk mengetahuinya yaitu dengan membandingkan nilai probabilitas dari obsR-Squared. Apabila nilai probabilitas obsR-Squared lebih besar dari
0,05 maka dapat dikatakan data terbebas dari geala Heterokedastisias Wing Wahyu, 2011:5.16
d. Uji Autokorelasi
Autokolerasi bertujuan untuk mengetahui apakah dalam sebuah model regresi linier ada korelasi antara kesalahan pengganggu pada periode t dengan
kesalahan pada periode t-i sebelumnya. Tentu saja model regresi yang baik adalah regresi bebas dari autokolerasi. Gujarati 2007:112. Autokorelasi
menurut Wing Wahyu Winarno 2011 : 5.26 dapat berbentuk autokorelasi
posiif dan autokorelasi negatif.
Mengidentifikasi adanya autokorelasi dapat dilakukan dengan melakukan Uji Durbin-Watson.Apabila D-W berada diantara 1,54 hingga 2,46 maka model
tersebut tidakterdapat autokolerasi. Sebaliknya, jika DW tidak berada diantara 1,54 hingga 2,46 maka model tersebut terdapat autokolerasi. Wing Wahyu,
2009:5.27