Analisis Regresi Linier Berganda Uji Asumsi Klasik

3.7.5 Analisis Regresi Linier Berganda

Regresi linier berganda adalah analisis regresi yang menjelaskan hubungan antara peubah respon variabel dependen dengan faktor-faktor yang mempengaruhi lebih dari satu prediktor variabel independen. Regresi linier berganda hampir sama dengan regresi linier sederhana, hanya saja pada regresi linier berganda variabel bebasnya lebih dari satu variabel penduga. Tujuan analisis regresi linier berganda adalah untuk mengukur intensitas hubungan antara dua variabel atau lebih dan membuat prediksi perkiraan nilai atas Skala Pengukuran Variabel Analisis regresi linier berganda digunakan untuk memeriksa kuatnya hubungan antara variabel bebas dengan variabel terikat. Maka dalam penelitian ini regresinya adalah sebagai berikut Sugiyono, 2006: 250: Y = a + b 1 x 1 +....+ b n x n + e Keterangan: Y : Variabel terikat yaitu Daya saing a : Konstanta b 1 -b2 : Koefisien regresi variabel bebas ke-1 sampai ke-2 x 1 : factor reduction 1 x n : factor reduction ke-n e : Standart error

3.7.6 Uji Asumsi Klasik

Pengujian asumsi klasik diperlukan untuk mengetahui apakah hasil estimasi regresi yang dilakukan benar-benar bebas dari adanya gejala heteroskedastisitas, gejala multikolinearitas, dan gejala autokorelasi. Model regresi akan dapat dijadikan alat estimasi yang tidak bias jika telah memenuhi persyaratan BLUE best linear unbiased estimator. a. Uji Multikolinieritas Uji multikolonieritas bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi antar variabel independen. Model regresi yang baik seharusnya tidak terjadi korelasi di antara variabel independen. Menurut Gujarati 1999:175 Untuk mengetahui adanya multikolonieritas dapat dilihat dari nilai toleransinya dan lawannya atau variance inflation factor VIF. Jika VIF kurang dari 5 dan nilai toleransi lebih dari 0,1 maka regresi bebas dari multikolinieritas. b. Uji Autokorelasi Uji Autokorelasi bertujuan menguji apakah dalam suatu model regresi linear ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan pada periode t-1 sebelumnya. Jika terjadi korelasi maka dinamakan ada problem autokorelasi. Model regresi yang baik adalah regresi yang bebas dari autokorelasi, Ghozali, 2005:95. Uji autokorelasi dilakukan dengan menggunakan uji Durbin-Watson D-W yang dapat dilakukan dengan menggunakan program SPSS, dimana secara umum dapat diambil patokan sebagai berikut : 1 Jika d lebih kecil dari dL atau lebih besar dari 4-dL maka hopotesis nol ditolak, yang berarti terdapat autokorelasi. 2 Jika d terletak antara dU dan 4-dU, maka hipotesis nol diterima, yang berarti tidak ada autokorelasi. 3 Jika d terletak antara dL dan dU atau diantara 4-dU dan 4-dL, maka tidak menghasilkan kesimpulan yang pasti. c. Uji Heteroskedastisitas Menurut Ghozali 2005: 105 uji heteroskedastisitas bertujuan untuk menguji apakah dalam model regresi terjadi ketidaksamaan variance residual dari satu pengamatan ke pengamatan yang lain. Jika variance dari residual satu pengamatan ke pengamatan lain tetap, maka disebut homoskedastisitas dan jika berbeda disebut heteroskedatisitas. Uji heteroskedastisitas digunakan untuk mengetahui ada atau tidaknya penyimpangan asumsi klasik heteroskedastisitas yaitu adanya ketidaksamaan varian dari residual untuk semua pengamatan pada model regresi. Apabila probabilitas hasil korelasi lebih kecil dari 0,05 5, maka persamaan regresi tersebut mengandung heteroskedastisitas dan sebaliknya berarti homoskedastisitas. d. Uji Normalitas Model Uji normalitas adalah pengujian dalam sebuah model regresi, variable dependent, variable independent atau keduanya mempunyai distribusi normal atau tidak Santoso,2004:212. Uji normalitas dimaksudkan untuk mengetahui apakah residual yang diteliti berdistribusi normal atau tidak. Metode yang digunakan untuk menguji normalitas adalah dengan menggunakan uji Kolmogorov-Smirnov. Jika nilai signifikan dari hasil uji Kolmogorov-Smirnov ≥ 0,05, maka terdistribusi normal dan sebaliknya terdistribusi tidak normal.

3.7.7 Uji Hipotesis