Dimana :
Y =
Variabel dependen, kebijakan hutang perusahaan dengan proksi
LR a = Konstanta
β
1
– β
5
= Koefisien regresi
X
1
= Variabel independen, struktur aset proksi FAR
X
2
= Variabel independen, ukuran perusahaan proksi total aset
perusahaan X
3
= Variabel independen, kepemilikan manajerial proksi
prosentase saham yang dimiliki pihak manajemen X
4
= Variabel independen, kepemilikan institusional proksi
prosentase saham yang dimiliki pihak eksternal atau investor
X
5
= Variabel independen, kebijakan hutang proksi DPR
ε =
Error atau kesalahan pengganggu
3.4.2 Uji Hipotesis
Sebelum dilakukan uji hipotesis regresi berganda maka terlebih dahulu dilakukan pengujian tentang :
3.4.2.1 Uji Normalitas
Menurut Sumarsono 2004 uji normalitas data digunakan untuk mengetahui apakah suatu data tersebut mengikuti sebaran normal. Dapat
Hak Cipta © milik UPN Veteran Jatim : Dilarang mengutip sebagian atau seluruh karya tulis ini tanpa mencantumkan dan menyebutkan sumber.
dilakukan dengan metode diantaranya metode Kolmogorov dan Smirnov. Dalam mengambil keputusan apakah sebuah distribusi data mengikuti distribusi normal
adalah : a. Jika nilai signifikan nilai probabilitasnya lebih kecil dari 5 , maka
distribusi tidak normal b. Jika nilai signifikan nilai probabilitasnya lebih besar dari 5 , maka
distribusi normal
3.4.2.2 Uji Asumsi Klasik
Persamaan regresi harus bersifat BLUE best linier unbiased estimator, artinya pengambilan keputusan tidak boleh bias untuk dapat menghasilkan
keputusan yang BLUE maka harus dipenuhi diantaranya dua asumsi dasar yang tidak boleh dilanggar oleh regresi linier, yaitu :
1. Tidak boleh ada Multikoliniearitas 2. Tidak boleh ada Heteroskedastisitas
3. Tidak boleh ada Autokorelasi Apabila salah satu dari kedua asumsi dasar tersebut dilanggar maka
persamaan regresi yang diperoleh tidak lagi bersifat BLUE sehingga pengambilan keputusan melalui uji F dan uji t menjadi bias.
1. Uji Multikoliniearitas
Uji Multikoliniearitas bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi antar variabel bebas independen. Model regresi
yang baik seharusnya tidak terjadi korelasi antara variabel bebas. Jika
Hak Cipta © milik UPN Veteran Jatim : Dilarang mengutip sebagian atau seluruh karya tulis ini tanpa mencantumkan dan menyebutkan sumber.
variabel bebas saling berkorelasi, maka variabel-variabel ini tidak orthogonal. Variabel orthogonal adalah variabel bebas yang nilai korelasi
antar sesama variabel bebas sama dengan nol Ghozali, 2001 : 57. Cara untuk mengetahui ada tidaknya multikoliniearitas yaitu dengan melihat
besarnya nilai variance inflation faktor VIF. VIF dapat dihitung dengan rumus :
1 VIF =
Tolerance Tolerance mengukur variabilitas variabel bebas yang terpilih yang tidak
dapat dijelaskan oleh variabel bebas lainnya. Dengan nilai VIF dibawah 10, maka tidak terjadi multikoliniearitas Ghozali, 2001 : 57.
2. Heteroskedastisitas Penyimpangan asumsi model klasik yang kedua adalah adanya
heteroskedastisitas. Artinya varians variabel dalam model tidak sama konstan. Konsekuensi adanya heteroskedastisitas dalam model regresi
adalah penaksir estimator yang diperoleh tidak efisien, baik dalam sampel kecil maupun dalam sampel besar, walaupun penaksir yang diperoleh
menggambarkan populasinya tidak bias dan bertambahnya sampel yang digunakan akan mendekati nilai sebenarnya konsisten.
Diagnosa adanya heteroskedastisitas secara kuantitatif dalam suatu regresi dapat dilakukan dengan melakukan pengujian korelasi Rank Spearman
Ghozali, 2001 : 57.
Hak Cipta © milik UPN Veteran Jatim : Dilarang mengutip sebagian atau seluruh karya tulis ini tanpa mencantumkan dan menyebutkan sumber.
Menurut Santoso 2002 : 301, deteksi adanya heteroskedastisitas adalah : 1. Nilai probabilitas 0,05, berarti bebas dari heteroskedastisitas.
2. Nilai probabilitas 0,05, berarti terkena heteroskedastisitas. 3. Autokorelasi
Penyimpangan model regresi klasik yang ketiga adalah adanya autokorelasi dalam model regresi, artinya adanya korelasi antar anggota sampel yang
diurutkan berdasarkan waktu. Penyimpangan asumsi ini biasanya muncul pada observasi yang menggunakan data time series. Gujarati, 1995 : 201.
Untuk mendiagnosa adannya autokorelasi dalam suatu model regresi dilakukan pengujian terhadap nilai Durbin-Watson Uji Dw dengan
ketentuan sebagai berikut :
Ada Daerah Daerah Ada Autokorelasi Keragu – raguan Keragu – raguan Autokorelasi
Positif Negatif
Tidak ada Autokorelasi positif
dan autokorelasi negatif
0 dL dU 2 4 – dU 4 – dL 4 Gambar 2 : Kurva Durbin Watson
Sumber : Gujarati, 1995: 216
Hak Cipta © milik UPN Veteran Jatim : Dilarang mengutip sebagian atau seluruh karya tulis ini tanpa mencantumkan dan menyebutkan sumber.
Salah satu cara untuk menghilangkan pengaruh autokorelasi yang terdapat dalam suatu model regresi adalah dengan memasukkan log variabel
dependennya.
3.4.2.3 Pengujian Hipotesis
Untuk menguji kebenaran dari hipotesis maka, dilakukan pengujian :
a. Uji Kesesuaian Model Uji F