H : Diduga tidak ada pengaruh yang signifikan antara FDI, Infrastruktur dan

56 berra . Bila probabilitas lebih besar dari 5 , maka data terdistribusi normal. Wing Wahyu, 2011 : 5.37-5.39

b. Uji Multikolinieritas

Multikoliniearitas adalah kondisi adanya hubungan linier antarvariabel independen. Karena melibatkan beberapa variabel independen, maka multikolinieartias tidak akan terjadi pada persamaan regresi sederhana yang terdiri atas satu variabel dependen dan satu variabel independen. Wing Wahyu, 2011 : 5.1 Menurut Singgih Santoso 2010:206, Multikoliniearitas mengandung arti bahwa antar variabel independen yang terdapat dalam model memiliki hubungan yang sempurna atau mendekati sempurna koefisien korelasinya tinggi atau bahkan 1. Gery Wibisono, 2013 : 65 Untuk mengetahui gejala multikolinearitas dapat dilihat dari nilai correlation matrix. Apabila hasil dari correlation matrix barada diantara 0,8 hingga 1, maka data terindikasi gejala multikolinearitas. Apabila hasilnya dibawah 0,8 maka data terbebas gejala multikolinearitas wing wahyu, 2011:5.5. Indikasi multikoliniearitas ditunjukan dengan beberapa informasi antara lain : 1 Nilai R 2 tinggi, tetapi variabel independen banyak yang yang tidak signifikan. 2 Dengan menghitung koefisien korelasi antarvariabel independen,apabila koefisien rendah maka tidak terdapat multikoliniearitas. 57 3 Dengan melakukan regresi auxiliary. Yaitu regresi yang dapat digunakan untuk mengetahui hubungan antara dua atau lebih variabel independen yang secara bersama-sama mempengaruhi satu variabel independen lainnya. Sedangkan alternative menghilangkan multikoliniearitas antara lain bisa dengan menambahkan data penelitian bila memungkinkan, karena masalah multikoliniearitas biasanya muncul karena jumlah observasi yang sedikit. Selain itu dapat dengan menghilangkan salah satu variabel independen terutama yang memiliki hubungan linier yang kuat dengan variabel lain. Namun jika tidak mungkin dihilangkan maka tetap harus dipakai. Selanjutnya bisa dengan mentransformasikan salah satu atau beberapa variabel dengan melakukan diferensiasi. Wing Wahyu, 2011 : 5.7-5.8

c. Uji Heteroskedastisitas

Asumsi dalam model regresi adalah dengan memenuhi 1 residual memiliki nilai rata-rata nol, 2 residual memiliki varian yang konstan,dan 3 residual suatu observasi tidak saling berhubungan dengan residual observasi lainnya sehingga menghasilkan estimator yang BLUE. Apabila asumsi 1 terpenuhi yang terpengaruh hanyalah slope estimator dan ini tidak membawa koefisien serius dalam analisis ekonometrik. Sedangkan jika asumsi 2 dan 3 tidak terpenuhi, maka akan berdampak pada prediksi dengan model yang dibangun. Dalam kenyataannya, nilai residual sulit memiliki varian yang 58 konstan. Hal ini sering terjadi pada data yang bersifat cross section dibanding time series. Wing Wahyu, 2011 : 5.8 Ada beberapa metode yang dapat digunakan untuk mengidentifikasi ada tidaknya masalah heterokedastisitas. Diantaranya dapat menggunakan Uji White. Untuk mengetahuinya yaitu dengan membandingkan nilai probabilitas dari obsR-Squared. Apabila nilai probabilitas obsR-Squared lebih besar dari 0,05 maka dapat dikatakan data terbebas dari geala Heterokedastisias Wing Wahyu, 2011:5.16

d. Uji Autokorelasi

Autokolerasi bertujuan untuk mengetahui apakah dalam sebuah model regresi linier ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan pada periode t-i sebelumnya. Tentu saja model regresi yang baik adalah regresi bebas dari autokolerasi. Gujarati 2007:112. Autokorelasi menurut Wing Wahyu Winarno 2011 : 5.26 dapat berbentuk autokorelasi posiif dan autokorelasi negatif. Mengidentifikasi adanya autokorelasi dapat dilakukan dengan melakukan Uji Durbin-Watson.Apabila D-W berada diantara 1,54 hingga 2,46 maka model tersebut tidakterdapat autokolerasi. Sebaliknya, jika DW tidak berada diantara 1,54 hingga 2,46 maka model tersebut terdapat autokolerasi. Wing Wahyu, 2009:5.27