65
KeputusanPemberian Kredit bersifat reliabel, karena nilai Alpha Cronbach lebih besar dari 0,6.
4.2 Uji Asumsi Klasik 4.2.1 Uji Normalitas
Uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabel pengganggu atau residual memiliki distribusi normal. Seperti diketahui bahwa uji
t dan F mengasumsikan bahwa nilai residual mengikuti distribusi normal. Kalau asumsi ini dilanggar maka uji statistik menjadi tidak valid untuk jumlah sampel
kecil Ghozali, 2011:160, Gujarati, 2003:339, Field, 2009:221, Supranto, 2005:90. Dalam penelitian ini, uji normalitas terhadap residual dengan
menggunakan uji Kolmogorov-Smirnov. Dalam penelitian ini, tingkat signifikansi yang digunakan
� = 0,05. Dasar pengambilan keputusan adalah melihat angka probabilitas
�, dengan ketentuan sebagai berikut.
Jika nilai probabilitas � ≥ 0,05, maka asumsi normalitas terpenuhi.
Jika probabilitas 0,05, maka asumsi normalitas tidak terpenuhi.
Tabel 4.5 Uji Normalitas
Sumber : hasil olahan software SPSS
Universitas Sumatera Utara
66
Perhatikan bahwa berdasarkan Tabel 4.5, diketahui nilai probabilitas �
atau Asymp. Sig. 2-tailed sebesar 0,282. Dalam penelitian ini, tingkat signifikansi yang digunakan adalah
� = 0,05. Karena nilai probabilitas �, yakni 0,282, lebih besar dibandingkan tingkat signifikansi, yakni 0,05. Hal ini berarti
asumsi normalitas dipenuhi. Pengujian asumsi normalitas dapat juga digunakan pendekatan analisis
grafik, seperti normal probability plot dan histogram. Pada pendekatan normal probability plot, jika titik-titik dots menyebar jauh menyebar berliku-liku pada
garis diagonal seperti ular dari garis diagonal, maka diindikasi asumsi normalitas error tidak dipenuhi. Jika titik-titik menyebar sangat dekat pada garis diagonal,
maka asumsi normalitas dipenuhi. Sedangkan untuk pendekatan histogram, jika kurva berbentuk kurva normal, maka asumsi normalitas dipenuhi
Gambar 4.1 Normal Probability Plot untuk Pengujian Asumsi Normalitas
Universitas Sumatera Utara
67
Gambar 4.2 Histogram untuk Pengujian Asumsi Normalitas
Gambar 4.1 dan Gambar 4.2 merupakan output dari SPSS. Perhatikan bahwa kurva pada histogram berbentuk kurva normal, sehingga disimpulkan
bahwa asumsi normalitas error dipenuhi. Di samping itu pada normal probability plot Gambar 4.1, titik-titik menyebar cukup dekat pada garis
diagonal, maka disimpulkan bahwa asumsi normalitas dipenuhi.
4.2.2 Uji Multikolinearitas
Pengujian ini dilakukan untuk menguji apakah dalam model regresi ditemukan adanya korelasi yang tinggi antar variabel bebas Ghozali, 2011:105.
Ketika terdapat korelasi antar variabel bebas yang cukup tinggi, maka permasalahan ini disebut dengan istilah multikolinearitas Stevens, 2009:74. Jika
terjadi multikolinearitas yang sempurna perfect multicolinearity, maka koefisien-koefisien regresi dari variabel bebas tidak dapat ditentukan
indeterminate, jika terjadi multikolinearitas yang tinggi, koefisien-koefisien regresi dari variabel bebas dapat ditentukan, namun memiliki nilai standar error
Universitas Sumatera Utara
68
yang tinggi yang berarti bahwa koefisien-koefisien regresi tersebut tidak dapat diestimasi dengan tepat atau akurat Gujarati, 2003:344. Field 2009:221 juga
menyatakan bahwa seharusnya tidak terjadi hubungan linear yang sempurna perfect linear relationship dari dua atau lebih variabel bebas. Jadi, variabel-
variabel bebas seharusnya tidak berkorelasi terlalu tinggi not correlate too highly.
Untuk memeriksa apakah terjadi multikolinearitas atau tidak dapat dilihat dari nilai variance inflation factor VIF. Nilai VIF yang lebih dari 10 diindikasi
suatu variabel bebas terjadi multikolinearitas Myers dalam Stevens, 2009:75.
Tabel 4.6 Uji Multikolinearitas
Sumber : hasil olahan software SPSS
Perhatikan bahwa berdasarkan Tabel 4.6, nilai VIF dari variabel Manajemen Risiko adalah 1,975, dan nilai VIF dari variabel Audit Internal adalah
1,975. Karena masing-masing nilai VIF tidak lebih besar dari 10, maka tidak terdapat gejala multikolinearitas yang berat. Dengan kata lain, tidak terjadi
korelasi antara variabel bebas yang begitu signifikan secara statistik pada tingkat signifikansi 5.
Universitas Sumatera Utara
69
4.2.3 Uji Autokorelasi
Uji independensi residual uji non-autokorelasi merupakan suatu uji untuk memeriksa apakah untuk setiap dua pengamatan residual saling berkorelasi atau
tidak Field, 2009:220. Supranto 2005:151 mengartikan non-autokorelasi sebagai tidak terjadinya korelasi antara kesalahan pengganggu yang satu dengan
yang lainnya. Meskipun terjadinya autokorelasi terhadap estimator-estimator yang dihasilkan oleh metode ordinary least square OLS tetap tak bias unbiased,
konsisten consistent, dan terdistribusi normal secara asimtotis, namun estimator- estimator tersebut tidak lagi efisien. Sebagai akibatnya, pada uji t, F, dan chi
kuadrat tidak lagi sah untuk digunakan cannot be legitimately applied Gujarati, 2003:489. Asumsi mengenai independensi terhadap residual non-autokorelasi
dapat diuji dengan menggunakan uji Durbin-Watson Field, 2009:220. Riyanto 2012:59 menyatakan jika nilai statistik Durbin-Watson -2 sd +2, maka asumsi
independensi terhadap residual non-autokorelasi terpenuhi. Sebaliknya, bila nilai statistik Durbin-Watson -2 atau 2, berarti asumsi independensi terhadap
residual non-autokorelasi tidak terpenuhi.
Tabel 4.7 Uji Autokorelasi
Sumber : hasil olahan software SPSS
Universitas Sumatera Utara
70
Berdasarkan Tabel 4.7, nilai dari statistik Durbin-Watson adalah 1,602. Perhatikan bahwa karena nilai statistik Durbin-Watson terletak di antara -2 dan
+2, maka asumsi non-autokorelasi terpenuhi. Dengan kata lain, tidak terjadi gejala autokorelasi yang tinggi pada residual.
4.2.4 Uji Heteroskedastisitas
Menurut Ghozali 2011:139 uji heteroskedastisitas bertujuan untuk menguji apakah dalam model regresi terjadi ketidaksamaan varians dari residual suatu
pengamatan ke pengamatan lain. Jika varians dari residual satu pengamatan ke pengamatan yang lain tetap, maka disebut homoskedastisitas dan jika berbeda
disebut heteroskedastisitas. Supranto 2005:57 mengartikan homoskedastisitas sebagai varians kesalahan pengganggu
�
�
untuk setiap pengamatan �
�
adalah sama, sedangkan heteroskedastisitas adalah sebaliknya.
Model regresi yang baik adalah yang homoskesdasitas atau tidak terjadi heterokesdatisitas. Apabila terjadi heteroskedastisitas, estimator-estimator yang
dihasilkan dengan metode OLS ordinary least square tidak lagi memiliki sifat varians yang minimum atau efisien. Dalam keadaan heteroskedastisitas, ketika
tetap menggunakan metode OLS yang biasa usual OLS formulas, maka uji t dan uji F dapat memberikan kesimpulan yang salah Gujarati, 2003:428.
Deteksi ada tidaknya heteroskedastisitas dapat dilakukan dengan melihat ada tidaknya pola tertentu pada grafik scatter plot antara SRESID pada sumbu Y,
dan ZPRED pada sumbu X.Field, 2009:230, Ghozali, 2011:139. Field 2009:248, Ghozali, 2011:139 menyatakan dasar analisis adalah jika ada pola
tertentu, seperti titik-titik yang ada membentuk pola tertentu yang teratur
Universitas Sumatera Utara
71
bergelombang, melebar, kemudian menyempit, maka mengindikasikan telah terjadi heteroskedastisitas. Jika tidak ada pola yang jelas, serta titik-titik menyebar
di atas dan di bawah angka 0 pada sumbu Y, maka tidak terjadi heteroskedastisitas.
Gambar 4.3 Uji Heteroskedastisitas
Sumber : hasil olahan software SPSS
Perhatikan bahwa berdasarkan Gambar 4.3, tidak terdapat pola yang begitu jelas, serta titik-titik menyebar di atas dan di bawah angka 0 pada sumbu Y,
maka tidak terjadi heteroskedastisitas.
4.3 Uji Hipotesis 4.3.1 Koefisien Determinasi R