2. Uji Asumsi Klasik
Dalam mencari keabsahan analisis regresi berganda, penelitian akan diuji dengan menggunakan uji asumsi klasik, yang bertujuan untuk mengetahui apakah
model regresi yang diperoleh dapat menghasilkan hasil yang baik. Adapun empat uji yang terdapat didalam uji asumsi klasik tersebut adalah :
a. Uji Normalitas
Uji normalitas digunakan untuk menguji apakah model regresi mempunyai distribusi normal atau tidak. Asumsi normalitas merupakan persyaratan yang
sangat penting dalam pengujian kebermaknaan signifikansi koefisien regresi. Model regresi yang baik adalah model regresi yang memiliki distribusi normal
atau mendekati normal, sehingga layak dilakukan pengujian secara statistik. Dibawah ini merupakan tabel Uji Normalitas yang telah dilakukan penelitian :
Tabel 4.8 Uji Normalitas
One-Sample Kolmogorov-Smirnov Test
Nilai Perusahaan
PBV N
30 Normal Parameters
a,b
Mean 1.1563
Std. Deviation .85389
Most Extreme Differences Absolute
.217 Positive
.217 Negative
-.164 Kolmogorov-Smirnov Z
1.188 Asymp. Sig. 2-tailed
.119 a. Test distribution is Normal.
b. Calculated from data.
Berdasarkan tabel 4.8 diatas hasil uji Kolmogorov-Smirnov dapat disimpulkan bahwa besarnya nilai uji Kolmogorov-Smirnov adalah 1.188 dengan
signifikansi sebesar 0,119 dimana hasil nlai signifikansi tersebut dari 0,05. Dengan demikian Ho diterima dan Ha ditolak dan hal ini berarti juga data
terdistribusi normal. Berikut di bawah ini merupakan grafik normal probability plot :
Gambar 4.7 Grafik Normal Probability-Plot of Regression Standardized Residual
Berdasarkan gambar normal probability plot diatas dapat dilihat bahwa titik-titik menyebar di sekitar garis diagonal serta penyebarannya mengikuti arah
garis diagonal dan data yang dimiliki terlihat merata dan cukup baik. Hal ini berarti bahwa model regesi tersebut memenuhi asumsi normalitas karena data
terdistribusi secara normal.
b. Uji Multikolinieritas
Uji multikolonieritas bertujuan untuk menguji apakah model regresi ditemukan adanya kolerasi antar variabel bebas independen. Model regresi yang
baik seharusnya tidak terjadi korelasi di antara variabel independen. Jika variabel independen saling berkolerasi, maka variabel ini tidak ortogonal. Variabel
ortogonal adalah variabel independen yang nilai kolerasi antar sesama variabel independen sama dengan nol. Berikut ini adalah tabel uji multikolinearitas :
Tabel 4.9 Tabel Uji Multikolinearitas
Coefficients
a
Model Unstandardized Coefficients
Standardized Coefficients
t Sig.
Collinearity Statistics B
Std. Error Beta
Tolerance VIF
1 Constant
1.605 .507
3.162 .004
Leverage DER -.431
.458 -.179
-.942 .355
.992 1.009
Dividend Yield DY
.003 .057
.010 .054
.958 .992
1.009 a. Dependent Variable: Nilai Perusahaan PBV
Berikut dibawah ini merupakan dasar acuan dari uji multikolinearitas untuk menjelaskan hasil yang telah diperoleh pada tabel diatas :
1. Jika nilai tolerance 10 persen dari nilai VIF 10, maka dapat disimpulka bahwa tidak ada multikolinieritas antar variabel independen dalam model
regresi. 2. Jika nilai tolerance 10 persen dan nilai VIF 10, maka dapat
disimpulkan bahwa ada multikolinieritas antar variabel independen dalam model regresi.
Berdasarkan tabel uji multikolinearitas diatas terdapat nilai tolerance untuk masing-masing variabel, yaitu sebagai berikut :
1. Nilai tolerance leverage adalah 0,992 0,10 2. Nilai tolerance dividien yield adalah 0,992 0,10
Dari hasil nilai tolerance diatas dapat disimpulkan bahwa tidak ada multikolinearitas antar variabel independen dalam model regresi.
Sedangkan untuk nilai VIF yang diperoleh masing-masing variabel adalah sebagai berikut :
1. VIF variabel leverage adalah 1,009 10 2. VIF variabel dividen yield adalah 1,009 10
Berdasarkan hasil nilai VIF yang diperoleh oleh masing-masing variabel diatas dapat disimpulkan bahwa tidak ada multikolinearitas antar variabel bebas
leverage dan dividen yield, artinya bahwa diantara variabel bebas tidak terdapat korelasi yang cukup kuat satu dengan yang lainnya dan data layak digunakan
untuk analisis regresi berganda.
c. Uji Heteroskedastisitas
Uji heteroskedastisitas digunakan untuk mengetahui ada atau tidaknya penyimpangan asumsi klasik heteroskedastisitas yaitu adanya ketidaksamaan
varian dari residual untuk semua pengamatan pada model regresi. Prasyarat yang harus
terpenuhi dalam
model regresi
adalah tidak
adanya gejala
heteroskedastisitas. Untuk menguji homogenitas varian dari residual digunakan uji rank spearman rho, yaitu dengan mengkorelasikan variabel bebas terhadap
nilai absolut dari residul error. Apabila koefisien dari masing-masing variabel independen ada yang signifikan pada tingkat kekeliruan 5 mengindikasi adanya
heteroskedastisitas.
Berikut dibawah ini adalah tabel uji heteroskedastisitas :
Tabel 4.10 Uji Heteroskedastisitas
Correlations
Leverage DER
Dividend Yield DY
klp
Spearmans rho Leverage DER
Correlation Coefficient
1.000 -.031
.139 Sig. 2-tailed
. .872
.463 N
30 30
30 Dividend Yield DY
Correlation Coefficient
-.031 1.000
.045 Sig. 2-tailed
.872 .
.814 N
30 30
30 Nilai Perusahaan
PBV Correlation
Coefficient .139
.045 1.000
Sig. 2-tailed .463
.814 .
N 30
30 30
Dari tabel diatas dapat diketahui hasil korelasi yang diperoleh bahwa korelasi antara varibel Leverage dan Dividen Yield sebagai berikut :
1. Nilai Correlation Coefficient Leverage adalah sebesar 0,139 0,05 2. Nilai Correlation Coefficient Dividen Yield adalah sebesar 0,463 0,05
Maka berdasarkan hasil diatas dapat kita ketahui bahwa tidak terjadi masalah heteroskedastisistas. Hal ini berarti variabel pengganggu e error
memiliki varian yang sama sepanjang observasi dari berbagai nilai dari variabel bebas, hal ini berarti data pada setiap variabel bebas memiliki rentangan yang
sama, sehingga dengan ini model regresi layak untuk digunakan dalam melakukan pengujian.
Gambar 4.8 Grafik Scatter Plot dari Hasil PEngujian Heteroskedastisitas
Berdasarkan Tabel dan Gambar di atas, dapat disimpulkan bahwa apabila dilihat dari gambar scatter plot data yang digunakan menyebar. Artinya bahwa
penelitian variable X
1
Leverage DER dan variabel X
2
Dividend Yield DY tidak mengalami mengalami masalah heterokedastisitas.
d. Uji Autokorelasi
Uji Autokorelasi digunakan untuk mengetahui apakah dalam model regresi linier terdapat korelasi antara kesalahan pengganggu pada peride t
dengan kesalahan pengganggu pada periode t-1 sebelumnya. Apabila terkjadi korelasi, maka dinamakan ada problem autokorelasi.
Cara yang dapat digunakan untuk mendeteksi ada atau tidaknya autokorelasi dengan uji Durbin-Watson DW test. Uji Durbin-Watson hanya
digunakan untuk autokorelasi tingkat satu first order autocorrelation dan
mensyaratkan adanya intercept konstanta dalam model regresi dan tidak ada veriabel lagi di antara variabel independen.
Hipotesis yang akan diuji adalah : Ho : tidak ada autokorelasi
Ha : ada aoutokorelasi Dibawah ini adalah tabel uji autokorelasi :
Tabel 4.11 Uji Autokorelasi
Berdasarkan tabel diatas diperoleh nilai statistic Durbin-Watson D-W adalah sebesar 1,143 sementara tabel d pada tingkat 5 untuk jumlah
variabel bebas = 2 dan jumlah pengamatan n = 30 diperoleh batas bawah nilai tabel batas bawah
sebesar 1,28373 dan batas atasnya sebesar 1,56661.
karena nilai Durbin-Watson model regresi DW 1,143 tidak berada di daerah -
maka tidak terdapat autokorelasi pada model regresi.
3. Uji Koefisien Korelasi Pearson