77
B. Penemuan dan Pembahasan
1. Uji Asumsi Klasik
Model regresi yang diperoleh dengan metode kuadrat terkecil biasa ordianary Least Square OLS merupakan model regresi yang
menghasilkan estimator linear tidak bias yang terbaik Best Linear Unbias Estimator BLUE.
63
Untuk menghasilkan model regresi tersebut maka suatu model harus memenuhi beberapa uji asumsi
klasik, diantaranya:
a. Uji Normalitas Data
Uji normalitas pada model regresi digunakan untuk menguji apakah nilai residual terdistribusi secara normal atau tidak.
Jadi dalam hal ini yang di uji normalitas bukan masing-masing variabel independen dan dependen tetapi nilai residual yang
dihasilkan dari model regresi. Model regresi yang baik adalah yang memiliki nilai residual yang terdistribusi secara normal.
64
Pada penelitian ini menggunakan grafik normal P-P Plot of Regression
Standardized Residual sebagai dasar pengambilan keputusan untuk uji normalitas data.
Cara normal probability plot lebih handal daripada cara grafik histogram, karena cara ini membandingkan data riil dengan
data distribusi normal otomatis oleh komputer secara komulatif.
63
Algifari, “Analisis Regresi Teori, Kasus dan Solusi”, Yogyakarta: BPFE, ed 2; cet IV, 2013 . h. 83.
64
Duwi Oriyanti, “Buku Saku Analisis Data SPSS”, Yogyakarta: Media Kom, 2011, h.
277
78
Suatu data dikatakan berdistribusi normal jika garis data riil mengikuti garis diagonal.
65
Berikut ini disajikan hasil normal P- Plot dari data yang telah diolah:
Gambar 4.1 Normal P-P Plot of Regression Standardized Residual
Dependent Variable: ABS_RES2
Sumber: data sekunder diolah Dari hasil olahan data, dihasilkan normal P-Plot seperti
terlihat di gambar 4.1 menunjukkan bahwa titik sampel keseluruhan mengikuti arah garis diagonal, maka dapat
disimpulkan bahwa data yang digunakan dalam penelitian untuk memenuhi model regresi memenuhi asumsi normalitas.
65
Danang Sunyoto, “Uji Khi Kuadrat Regresi untuk penelitian”, Yogyakarta: Graha
Ilmu, 2010 Ed I; Cet I,, h. 108
79
b. Uji Multikoliniearitas
Seperti yang dijelaskan pada bab sebelumnya bahwa suatu model regresi dinyatakan multikolinieritas dapat dilihat dari nilai
Tolerance dan nilai VIF. Nilai Tolerance adalah besarnya tingkat kesalahan yang dibenarkan secara statistik α, sedangkan nilai
variance inflation factor VIF adalah faktor inflasi penyimpangan baku kuadrat
. Variabel bebas mengalami multikolinearitas jika: α hitung α dan VIF hitung VIF. Sedangkan Variabel bebas tidak
mengalami multikolnearitas jika: α hitung α dan VIF hitung VIF. Nilai tolerance α dan nilai VIF dapat dicari dengan
menggabungkan kedua nilai tersebut sebagai berikut:
66
Besar nilai tolerance α:
Α hitung = 1 VIF Besar nilai variance inflation factor VIF:
VIF = 1 α hitung Berikut ini adalah hasil uji multikolinearitas yang disajikan pada
tabel 4.2:
66
Danang Sunyoto, “Uji Khi Kuadrat Regresi untuk penelitian”, Yogyakarta: Graha Ilmu, Ed I; Cet.I, 2010, h.97
80
Tabel 4.2 Hasil Uji Multikolinearitas
No Variabel
Colinearity Statistic Tolerance
VIF 1
SG X1 0.952
1.051 2
ROA X2 0.944
1.059 3
CAR X3 0.894
1.118 4
NPF X4 0.891
1.122 Sumber: Olah data hasil output SPSS
Hasil uji multikolinearitas pada tabel 4.2 menunjukkan bahwa jika menggunakan alphatolerance = 10 atau 0,10, maka VIF = 10. Dari
output niali VIF hitung VIF SG = 1.051, VIF ROA = 1.059, VIF CAR = 1.118 dan VIF NPF = 1.122 VIF = 10 dan semua tolerance
variabel bebas SG = 95,2, ROA = 94,4, CAR = 89,4 dan NPF = 89,1
10 dapat disimpulkan bahwa antar variabel bebas tidak terjadi multikolinearitas.
c. Uji Heteroskedastisias
Analisis uji asumsi heteroskedastisitas hasil output SPSS melalu grafik scatterplot antara Z prediction ZPRED yang
merupakan variabel bebas sumbu X = Y hasil prediksi dan nilai residualnya SRESID merupakan variabel terikat sumbu Y = Y
predikse – Y riil. Homoskedastisitas terjadi jika pada scatterplot
titik-titik hasil pengolahan data antar ZPRED dan SRESID