analisis regresi dalam pengujian hipotesis, terlebih dahulu diuji apakah model tersebut memenuhi asumsi klasik atau tidak. Pengujian asumsi tersebut
meliputi:
a. Uji Asumsi Klasik
Pengujian regresi linear berganda dapat dilakukan setelah model dari penelitian ini memenuhi syarat-syarat yaitu lolos dari asumsi klasik. Syarat-
syarat tersebut adalah data tersebut harus terdistribusi secara normal, tidak mengandung multikolinearitas, autokorelasi dan heterokedastisitas. Untuk itu
sebelum melakukan pengujian regresi linear berganda perlu dilakukan terlebih dahulu pengujian asumsi klasik, yang terdiri dari:
1. Uji Normalitas
Menurut Erlina dan Mulyani 2007 : 103, ”uji ini berguna untuk tahap awal dalam metode pemilihan analisis data. Jika data normal, gunakan statistik
parametrik dan jika data tidak normal gunakan statistik non parametrik atau lakukan treatment agar data normal.”
Tujuan uji normalitas menurut Ghozali 2005:111 adalah ingin mengetahui apakah dalam model regresi variabel pengganggu atau residual
memiliki distribusi normal. Seperti diketahui bahwa uji t dan F mengasumsikan bahwa nilai residual mengikuti distribusi normal. Kalau
asumsi ini dilanggar maka uji statistik menjadi tidak valid untuk jumlah sampel kecil.”
Universitas Sumatera Utara
Ada dua cara untuk mendeteksi apakah residual berdistribusi normal atau tidak menurut Ghozali 2005 : 110, yaitu :
i Analisis grafik Salah satu cara termudah untuk melihat normalitas residual adalah
dengan melihat grafik histogram yang membandingkan antara data observasi dengan distribusi yang mendekati distribusi normal.
Metode yang lebih handal adalah dengan melihat normal probability plot yang membandingkan distribusi kumulatif dari distribusi
normal. Distribusi normal akan membentuk satu garis lurus diagonal dan plotnya data residual akan dibandingkan dengan garis diagonal.
Jika distribusi data residual
normal, maka garis yang menggambarkan data sesungguhnya akan mengikuti garis
diagonalnya. ii Analisis statistik
Uji statistik sederhana dapat dilakukan dengan melihat nilai kurtosis dan nilai Z-skewness. Uji statistik lain yang dapat digunakan untuk
menguji normalitas residual adalah uji statistik non parametrik Kolmogorov-Smirnov K-S.
Pedoman pengambilan keputusan tentang data tersebut mendekati atau merupakan distribusi normal berdasarkan uji Kolmogorov Smirnov dapat
dilihat dari: a
Nilai Sig. atau signifikan atau probabilitas 0,05, maka distribusi data adalah tidak normal.
b Nilai Sig. atau signifikan atau probabilitas 0,05, maka distribusi data adalah normal.
2. Uji Multikolinearitas
Menurut Ghozali 2005:111 uji multikolinearitas bertujuan untuk menguji apakah model regresi ditemukan dengan adanya korelasi diantara
variabel independen. Suatu model regresi yang baik tidak ditemukannya hubungan atau korelasi di antara variabel independen. Dalam pengujian
Universitas Sumatera Utara
multikolinearitas penulis menggunakan metode Variance Inflation Factor VIF.
Untuk mendeteksi ada atau tidaknya multikolinearitas di dalam model regresi menurut Hadi 2006 : 168 dapat dilihat dari :
i Salah satu ciri regresi yang terjangkit multikolinear adalah
persamaan tersebut memiliki nilai R
2
yang sangat tinggi, tetapi hanya memiliki sedikit variabel independen yang signifikan memiliki nilai
t hitung tinggi. Keadaan yang paling ekstrim adalah bila model memiliki nilai R
2
dan F hitung yang tinggi dan secara otomatis akan memiliki nilai signifikansi F yang sangat bagus tetapi tidak satupun
variabel independen yang memiliki nilai t cukup signifikan. Bila hal ini terjadi maka bisa disimpulkan bahwa bagusnya F dan R
2
karena adanya interaksi antar variabel independen yang cukup tinggi multikolinear
ii Indikator lain yang bisa dipakai adalah CI Condition Index atau
Eigenvalues. Bila CI berkisar antara10 sampai dengan 30 maka kita bisa mengatakan bahwa persamaan tersebut terjangkit multikolinear.
Bila CI 30 maka terjangkitnya semakin kecil.
iii VIF Variable Inflation Factor juga bisa digunakan sebagai
indicator. Bila VIF 10 maka variable tersebut memiliki kolinearitas yang tinggi.
Bila ternyata model terindikasi penyakit multikolinear, maka baru dicari korelasi diantara variabel independen. Gujarati 1995 dalam Hadi 2006 :
168 menyatakan bahwa “dua variabel yang memiliki tingkat korelasi 0,8 sudah terlalu tinggi tetapi kalau 0,5 tidak ada masalah.”
Bila didapatkan dua variabel yang memiliki korelasi tinggi 0,8 ke atas, ambil salah satu saja dan hilangkan yang lain.
Menurut Ghozali 2005 : 91, untuk mendeteksi ada atau tidaknya multikolinearitas di dalam model regresi adalah sebagai berikut :
1 Nilai R
2
yang dihasilkan oleh suatu estimasi model regresi empiris sangat tinggi, tetapi secara individual variabel-variabel
independennya banyak yang tidak signifikan mempengaruhi variabel dependen.
Universitas Sumatera Utara
2 Menganalisis matrik korelasi variabel-variabel independen. Jika
antar variabel independen ada korelasi yang cukup tinggi umumnya di atas 0.90, maka hal ini merupakan indikasi adanya
multikolinearitas. Tidak adanya korelasi yang tinggi antar variabel independen tidak berarti bebas dari multikolinearitas.
Multikolinearitas dapat disebabkan karena adanya efek kombinasi dua atau lebih variabel independen.
3 Multikolinearitas dapat juga dilihat dari a nilai tolerance dan
lawannya b variance inflation factor VIF. Kedua ukuran ini menunjukkan setiap variabel independen manakah yang dijelaskan
oleh variabel independen lainnya. Dalam pengertian sederhana setiap variabel independen menjadi variabel dependen terikat dan diregres
terhadap variabel independen lainnya. Tolerance mengukur variabilitas variabel independen yang terpilih yang tidak dijelaskan
oleh variabel independen lainnya. Jadi nilai tolerance yang rendah sama dengan nilai VIF tinggi karena VIF = 1 Tolerence. Nilai
cutoff yang umum dipakai untuk menunjukkan adanya multikolinearitas adalah nilai tolerance 0.10 atau sama dengan nilai
VIF 10.
Menurut Ghozali 2005 : 95, cara mengobati apabila terjadi multikolonieritas dalam data penelitian adalah sebagai berikut:
a. Menggabungkan data crossection dan time series pooling data
b. Keluarkan satu atau lebih variable indevenden yang mempunyai
korelasi tinggi dari model regresi dan identifikasikan variable indevenden lainnya untuk membantu prediksi.
c. Transformasi variable merupakan salah satu cara mengurangi
hubungan linear di antara variable indevenden. Transformasi dapat dilakukan dalam bentuk logaritmo natural dan bentuk first difference
atau delta. Caranya Yt = b1 + b2 X2t + b3 X3t + ut
……………………1 Yt-1 = b1 + b2 X2t-1 + b3 X3t-1 + ut-1
……………2 Kurangkan persamaan 2 dari 1 didapat first difference
Yt – Yt-1 = b2 X2t – X2t-1 + b3 X3t – X3t-1 + vt……3
d. Gunakan model dengan variabel indevenden yang mempunyai korelasi
tinggi hanya semata-mata untuk prediksi jangan mencoba untuk menginterpretasikan koefisien regresinya.
e. Gunakan metode analisis yang lebih canggih seperti Bayesian
regression atau dalam kasus khusus ridge regression.
3.Uji Heterokedasitas
Universitas Sumatera Utara
Menurut Ghozali 2005: 111 uji heterokedasitas bertujuan untuk melihat apakah didalam model regesi terjadi ketidaksamaan variabel dari
residual satu pengamatan ke pengamatan yang lain. Suatu model regresi yang baik adalah tidak terjadi heterokedasitas. Uji Heterokedastisitas adalah
asumsi dalam regresi dimana varians dan residual tidak sama untuk satu pengamatan yang lain. Jika varians dari residual satu pengamatan ke
pengamatan yang lain tetap, maka disebut homokedasitas, namun jika sebaliknya disebut heterokedasitas. Pengujian ini dilakukan dengan
menggunakan SPSS release 16.
Menurut Ghozali 2005:105, Uji heteroskedastisitas bertujuan menguji apakah dalam model regresi
terjadi ketidaksamaan variance dari residual satu pengamatan ke pengamatan yang lain. Jika variance dari residual satu pengamatan ke
pengamatan lain tetap, maka disebut homoskedastisitas dan jika berbeda disebut heteroskesdatisitas. Model regresi yang baik adalah yang
homoskedastisitas atau tidak terjadi heteroskesdatisitas.
Suatu model dikatakan terdapat gejala heterokedesitas jika koefisien parameter beta dari persamaan regresi tersebut signifikan secara statistik.
Sebaliknya, jika parameter beta tidak signifikan secara statisik, hal ini menunjukkan bahwa data model empiris yang diestimasi tidak terdapat
heterokedesitas Erlina,2007:108. Menurut Gujarati 1995 dalam Hadi 2006 : 172, “untuk mengetahui
adanya masalah heteroskesdatisitas ini kita bisa menggunakan korelasi jenjang Spearman, tes Park, tes Goldfeld-Quandt, tes BPG, tes White atau tes
Glejser.” Bila menggunakan korelasi jenjang Spearman, maka kita harus
Universitas Sumatera Utara
menghitung nilai korelasi untuk setiap variabel independen terhadap nilai residu, baru kemudian dicari tingkat signifikansinya. Park dan Glejser test
memiliki dasar test yang sama yaitu meregresikan kembali nilai residu ke variabel independen.
Menurut Hadi 2006 : 174, salah satu cara untuk mengurangi masalah heteroskesdatisitas adalah “menurunkan besarnya rentang range data. Salah
satu cara yang bisa dilakukan untuk menurunkan rentang data adalah melakukan transformasi manipulasi logaritma. Tindakan ini bisa dilakukan
bila semua data bertanda positif.”
4. Autokorelasi