a. Uji Normalitas
Menurut Sumarsono 2004: 40 Uji normalitas digunakan untuk mengetahui apakah suatu data mengikuti sebaran normal atau tidak. Untuk
mengetahui apakah data tersebut mengikuti sebaran normal dapat dilakukan dengan metode Kolmogrov Smirnov dengan ketentuan sebagai
berikut Sumarsono, 2004: 43:
a. Jika nilai signifikasi nilai probabilitasnya lebih kecil dari 0,05
maka distribusi tidak normal. b.
Jika nilai signifikasi nilai probabilitasnya lebih besar dari 0,05 maka distribusi adalah normal.
b. Uji Asumsi Klasik
Persamaan regresi tersebut harus bersifat BLUE Best Linier Unbiassed Estimator artinya pengambilan keputusan uji F
tidak boleh bias. Adapun tiga asumsi dasar yang tidak boleh dilanggar oleh regresi linier berganda yaitu:
1. Tidak boleh ada autokorelasi
2. Tidak boleh ada multikolinieritas.
3. Tidak boleh ada heteroskedastitas
Apabila salah satu dari ketiga asumsi dasar tersebut dilanggar, maka persamaan regresi yang diperoleh tidak lagi
bersifat BLUE, sehingga pengambilan keputusan melalui uji F dan uji t menjadi bias.
a. Autokorelasi
Autokorelasi adalah adanya korelasi hubungan antara anggota serangkaian data observasi yang diuraikan menurut waktu
time series atau ruang cross section Suliyanto,2005: 40. Akibat yang timbul dari adanya autokorelasi dalam suatu model
regresi adalah varians populasinya dalam model regresi adalah varians sampel tidak dapat menggambarkan varians populasinya
dalam model regresi yang dihasilkan tidak dapat digunakan untuk menaksir nilai variabel dependen pada variabel independen
tertentu. Suliyanto 2005: 64 mengemukakan bahwa untuk mendiagnosis adanya autokorelasi dalam suatu model regresi dapat
dilakukan dengan cara melakukan pengujian terhadap nilai uji durbin –watson uji DW, dengan ketentuan sebagai berikut:
1. Angka DW dibawah -2 berarti ada autokorelasi positif
2. Angka DW diantara -2 sampai +2 berarti tidak ada
autokorelasi 3.
Angka DW diatas +2 berarti ada autokorelasi negatif.
b. Multikolinieritas
Menurut Suliyanto 2005: 63 multikolinieritas terjadi jika antar variabel independen yang terdapat dalam model regresi
memiliki hubungan yang sempurna atau mendekati sempurna koefisien korelasinya tinggi atau bahkan 1. Jika dalam suatu
model regresi terdapat multikolinieritas maka model regresi yang diperoleh tidak sah valid untuk menaksir nilai variabel
independen. Untuk mendiagnosis adanya multikolinieritas, sebagai
berikut: 1.
Koefisien korelasi tinggi. 2.
Jika R
2
tinggi, nilai F hitung tinggi, sedangkan sebagian besar atau bahkan seluruh koefisien regresi tidak
signifikan nilai t
hitung
sangat rendah Algafiri, 2000: 84
Untuk mengetahui ada tidaknya multikolinier antar variabel, salah satu caranya adalah dengan melihat dari nilai
Variance Inflation Factor VIF dimana nilai VIF= 1TOL, jika VIF 10 maka suatu model dapat dikatakan tidak terjadi
multikolinieritas Suliyanto, 2005: 75. Selain itu dapat pula dilihat dari besarnya nilai koefisien korelasi, jika nilai koefisien korelasi
antar variabel-variabel bebasnya tidak lebih dari 0,5 maka model tersebut tidak mengandung unsur multikolinieritas.
c. Heteroskedastisitas
Suatu model regresi dikatakan terdapat Heteroskedastisitas jika varians variabel dalam model tidak sama konstan Algafiri,
2000:85. Untuk mendiagnosis adanya Heteroskedastisitas, salah satunya dengan melakukan pengujian rank spearman. Dikatakan
tidak terjadi heteroskedastisitas apabila nilai signifikasi 0,05 Suliyanto, 2005: 74
3.4.2 Uji Hipotesis
Uji hipotesis dilakukan untuk mendeteksi pengaruh
variabel-variabel independenbebas yaitu Non Performing Loan,
Capital Adequacy Ratio, Loan to Deposit Ratio terhadap Return
On Asset. a.
Uji t
Dalam suatu pengujian hipotesis, untuk mengetahui apakah suatu variabel secara individu berpengaruh atau tidak digunakan uji
t atau t student Langkah-langkah yang dilakukan dalam pengujian parsial adalah:
1. Menentukan hipotesis statistik.
H :b
1
: b
2
: b
3
= 0 tidak terdapat pengaruh yang signifikan dari
variabel bebas X terhadap variabel terikat Y H
:b
1
: b
2
: b
3
0 terdapat pengaruh yang signifikan dari variabel bebas X terhadap variabel terikat Y
2. Menentukan tingkat signifikasi. Dalam penelitian ini
digunakan tingkat signifikasi 0,05 atau 5. Dengan derajat bebas [n-k], dimana n: jumlah pengamatan dan k: jumlah
variabel. 3.
H diterima jika,H
a
ditolak jika signifikasi 0,05 tidak ada pengaruh yang signifikan dari variabel bebas X terhadap
variabel terikat Y. 4.
H ditolak jika, H
a
diterima jika nilai signifikasi 0,05 ada
pengaruh antara variabel bebas dengan variabel terikat.
b. Uji F