1. Pengujian Asumsi Klasik
Pengujian regresi linear berganda dapat dilakukan setelah model dari penelitian ini memenuhi syarat-syarat yaitu lolos dari asumsi klasik. Syarat-syarat
tersebut adalah data tersebut harus terdistribusi secara normal, tidak mengandung multikolinearitas, autokorelasi dan heterokedastisitas. Untuk itu sebelum
melakukan pengujian regresi linear berganda perlu dilakukan terlebih dahulu pengujian asumsi klasik.
a. Uji Normalitas
Menurut Erlina dan Mulyani 2007 : 103, ”uji ini berguna untuk tahap awal dalam metode pemilihan analisis data. Jika data normal, gunakan statistik
parametrik dan jika data tidak normal gunakan statistik non parametrik atau lakukan treatment agar data normal.” Menurut Ghozali 2005 : 110, ”uji
normalitas bertujuan untuk menguji apakah dalam model regresi, variabel pengganggu atau residual memiliki distribusi normal. Seperti diketahui bahwa uji
t dan F mengasumsikan bahwa nilai residual mengikuti distribusi normal. Kalau asumsi ini dilanggar maka uji statistik menjadi tidak valid untuk jumlah sampel
kecil.” Dua cara untuk mendeteksi apakah residual berdistribusi normal atau tidak
menurut Ghozali 2005 : 110, 1 analisis grafik
Salah satu cara termudah untuk melihat normalitas residual adalah dengan melihat grafik histogram yang membandingkan antara data observasi
dengan distribusi yang mendekati distribusi normal. Metode yang lebih handal adalah dengan melihat normal probability plot
yang membandingkan distribusi kumulatif dari distribusi normal. Distribusi
normal akan membentuk satu garis lurus diagonal dan plotnya data
Universitas Sumatera Utara
residual akan dibandingkan dengan garis diagonal. Jika distribusi data residua l normal, maka garis yang menggambarkan data sesungguhnya
akan mengikuti garis diagonalnya.
2 analisis statistik Uji statistik sederhana dapat dilakukan dengan melihat nilai kurtosis dan
nilai Z-skewness. Uji statistik lain yang dapat digunakan untuk menguji normalitas residual adalah uji statistik non parametrik Kolmogorov-
Smirnov K-S.
Pedoman pengambilan keputusan tentang data tersebut mendekati atau
merupakan distribusi normal berdasarkan uji Kolmogorov Smirnov dapat dilihat dari :
a nilai Sig. atau signifikan atau probabilitas 0,05, maka distribusi data adalah tidak normal,
b nilai Sig. atau signifikan atau probabilitas 0,05, maka distribusi data adalah normal.
b. Uji Multikolinearitas
Menurut Gujarati 1995 dalam Hadi 2006 : 168, “uji multikolinearitas
berhubungan dengan adanya korelasi antar variabel independen. Sebuah persamaan terjangkit penyakit ini bila dua atau lebih variabel independen
memiliki tingkat korelasi yang tinggi. Sebuah persamaan regresi dikatakan baik bila persamaan tersebut memiliki variabel independen yang saling tidak
berkorelasi.” Untuk mendeteksi ada atau tidaknya multikolinearitas di dalam model regresi
menurut Hadi 2006 : 168 dapat dilihat dari : 1
salah satu ciri regresi yang terjangkit multikolineartas adalah persamaan tersebut memiliki nilai R
2
yang sangat tinggi, tetapi hanya memiliki sedikit variabel independen yang signifikan memiliki nilai t hitung tinggi.
Keadaan yang paling ekstrim adalah bila model memiliki nilai R
2
dan F
Universitas Sumatera Utara
hitung yang tinggi dan secara otomatis akan memiliki nilai signifikansi F yang sangat bagus tetapi tidak satupun variabel independen yang memiliki
nilai t cukup signifikan. Bila hal ini terjadi maka bisa disimpulkan bahwa bagusnya F dan R
2
karena adanya interaksi antar variabel independen yang cukup tinggi multikolinear
2 indikator lain yang bisa dipakai adalah CI Condition Index atau
Eigenvalues. Bila CI berkisar antara10 sampai dengan 30 maka kita bisa mengatakan bahwa persamaan tersebut terjangkit multikolinear. Bila CI
30 maka terjangkitnya semakin kecil.
3 VIF Variabel Inflation Factor juga bisa digunakan sebagai indicator. Bila
VIF 10 maka variabel tersebut memiliki kolinearitas yang tinggi.
Menurut Ghozali 2005 : 91, untuk mendeteksi ada atau tidaknya multikolinearitas di dalam model regresi,
1 nilai R
2
yang dihasilkan oleh suatu estimasi model regresi empiris sangat tinggi, tetapi secara individual variabel-variabel independennya banyak
yang tidak signifikan mempengaruhi variabel dependen. 2
menganalisis matrik korelasi variabel-variabel independen. Jika antar variabel independen ada korelasi yang cukup tinggi umumnya di atas
0.90, maka hal ini merupakan indikasi adanya multikolinearitas. Tidak adanya korelasi yang tinggi antar variabel independen tidak berarti bebas
dari multikolinearitas. Multikolinearitas dapat disebabkan karena adanya efek kombinasi dua atau lebih variabel independen.
3 multikolinearitas dapat juga dilihat dari a nilai tolerance dan lawannya b
variance inflation factor VIF. Kedua ukuran ini menunjukkan setiap variabel independen manakah yang dijelaskan oleh variabel independen
lainnya. Dalam pengertian sederhana setiap variabel independen menjadi variabel dependen terikat dan diregres terhadap variabel independen
lainnya. Tolerance mengukur variabilitas variabel independen yang terpilih yang tidak dijelaskan oleh variabel independen lainnya. Jadi nilai
tolerance yang rendah sama dengan nilai VIF tinggi karena VIF = 1 Tolerence. Nilai cutoff yang umum dipakai untuk menunjukkan adanya
multikolinearitas adalah nilai tolerance 0.10 atau sama dengan nilai VIF 10.
Universitas Sumatera Utara
Beberapa cara mengobati apabila terjadi multikolonieritas dalam data penelitian adalah sebagai berikut:
a menggabungkan data crossection dan time series pooling data
b mengeluarkan satu atau lebih variabel independen yang mempunyai korelasi
tinggi dari model regresi dan identifikasikan variabel independen lainnya untuk membantu prediksi.
c transformasi variabel merupakan salah satu cara mengurangi hubungan linear
di antara variabel independen. d
menggunakan model dengan variabel independen yang mempunyai korelasi tinggi hanya semata-mata untuk prediksi jangan mencoba untuk
menginterpretasikan koefisien regresinya. e
menggunakan metode analisis yang lebih canggih seperti Bayesian regression atau dalam kasus khusus ridge regression.
c. Uji Heterokedastisitas,