H. Teknik Analisis Data
1. Analisis Statistik Deskriptif
Statistik deskriptif memberikan gambaran atau deskripsi data yang dilihat dari nilai minimum, maksimum, mean, dan standar deviasi. Mean
menunjukkan nilai rata-rata. Maksimum dan minimum menunjukkan nilai terbesar dan terkecil. Analisis statistik deskriptif dalam penelitian ini
digunakan untuk menghitung nilai minimum, maksimum, mean, dan standar deviasi pada variabel independen DPK, CAR, NPL, dan BOPO serta variabel
dependen kredit.
2. Uji Asumsi Klasik
Karena data yang digunakan adalah data sekunder maka untuk
menentukan ketepatan model perlu dilakukan pengujian atas beberapa asumsi
klasik yang
digunakan yaitu:
Uji Normalitas,
Multikolinearitas,
Heteroskedastisitas, dan Autokorelasi yang secara rinci dapat dijelaskan
sebagai berikut: a.
Uji Normalitas Uji Normalitas bertujuan untuk menguji apakah dalam model regresi
variabel pengganggu atau residual memiliki distribusi normal. Seperti yang
telah diketahui bahwa uji t dan uji F mengasumsikan bahwa nilai residual mengikuti distribusi normal. Apabila asumsi ini dilanggar maka uji statistik
menjadi tidak valid untuk jumlah sampel yang kecil. Model regresi yang
baik memiliki distribusi data normal atau mendekati normal. Pada uji
normalitas ini, uji yang digunakan adalah Kolmogorov Smirnov. Uji tersebut digunakan untuk mengetahui tingkat signifikansi dari nilai residual
apakah terdistribusi secara normal atau tidak. Dasar pengambilan keputusan pada uji Kolmogorov Smirnov yaitu:
1 Jika nilai probabilitas nilai signifikansi 0,05 berarti bahwa data
residual berdistribusi normal. 2
Jika nilai probabilitas nilai signifikansi 0,05 berarti bahwa data residual tidak berdistribusi normal.
b. Uji Multikolinearitas
Uji Multikolinearitas bertujuan untuk mengetahui apakah dalam model regresi ditemukan adanya korelasi antar variabel bebas
independen. Model regresi yang baik seharusnya tidak terjadi korelasi diantara variabel independen. Jika variabel independen saling berkorelasi,
maka variabel-variabel ini tidak ortogonal. Variabel ortogonal adalah variabel independen yang nilai korelasi antar sesama variabel independen
sama dengan nol. Untuk mendeteksi ada atau tidaknya multikolinearitas di dalam model regresi dapat dilihat dari 1 nilai tolerance dan lawannya 2
variance factor VIF. Kedua ukuran ini menunjukkan setiap variabel independen manakah yang dijelaskan oleh variabel independen lainnya.
Dalam pengertian sederhana setiap variabel independen menjadi variabel dependen terikat dan diregresi terhadap variabel independen lainnya.
Tolerance mengukur variabilitas variabel independen yang terpilih yang tidak dijelaskan oleh variabel independen lainnya. Jadi nilai tolerance
yang rendah sama dengan nilai VIF tinggi karena VIF=1Tolerance. Nilai cutoff yang umum dipakai untuk menunjukkan adanya multikolinearitas
adalah nilai tolerance ≤ 0.10 atau sama dengan nilai VIF ≥ 10. Setiap
peneliti harus menentukan tingkat kolinearitas yang masih dapat ditolerir, misalnya nilai tolerance= 0.10 sama dengan tingkat kolinearitas 0.95.
Walaupun multikolinearitas dapat dideteksi dengan nilai Tolerance dan VIF, tetapi kita masih tetap tidak mengetahui variabel-variabel independen
mana sajakah yang saling berkorelasi. c.
Uji Heteroskedastisitas Uji Heteroskedastisitas bertujuan menguji apakah dalam model
regresi terjadi ketidaksamaan variance dari residual satu pengamatan ke pengamatan lain. Model regresi yang baik adalah yang tidak terjadi
heteroskedasitas. Untuk mendeteksi ada atu tidaknya heteroskedastisitas di dalam model regresi antara lain dapat dilakukan Uji Glejser, yaitu
meregresikan nilai absolut residual sebagai variabel dependen terhadap variabel independen. Jika probabilitas signifikansinya di atas tingkat
kepercayaan 5, dapat disimpulkan model regresi tidak mengandung adanya Heteroskedastisitas.
d. Uji Autokorelasi
Uji Autokorelasi bertujuan untuk menguji apakah dalam model regresi linear ada korelasi antara kesalahan pengganggu pada periode t
dengan kesalahan pengganggu pada periode t-1 sebelumnya. Jika terjadi korelasi maka dinamakan ada problem autokorelasi. Autokorelasi muncul
karena observasi ke observasi lainnya. Hal ini sering ditemukan pada data runtut waktu time series karena gangguan pada seseorang individu atau
kelompok cenderung mempengaruhi gangguan pada individu atau kelompok yang sama pada periode berikutnya. Pada data crossection
silang waktu, masalah autokorelasi relatif jarang terjadi karena gangguan pada observasi yang berbeda berasal dari individu kelompok yang berbeda.
Model regresi yang baik adalah regresi yang bebas dari autokorelasi. Untuk mendeteksi ada atau tidaknya autokorelasi didalam model
regresi antara lain dapat melakukan Uji Run Test dengan melihat nilai Asymp Sig. yang dihasilkan. Jika nilai Asymp Sig. lebih besar dari 0,05
maka dapat disimpulkan bahwa model regresi terbebas dari autokorelasi.
3. Pengujian Hipotesis
a. Melakukan pengujian hipotesis dengan melakukan analisis regresi
berganda Penelitian ini menggunakan model penelitian analisis regresi data
panel dengan pendekatan fixed effect. Analisis regresi data panel adalah
regresi dengan data yang memiliki dimensi waktu dan dimensi ruang. Dalam regresi data panel dilakukan regresi dengan data cross-section dan
data time series Suharjo, 2008:131. 1
Mencari koefisien regresi setiap variabel independen dengan persamaan regresi sebagai berikut:
K = α
1
+ α
2
D
2i
+ α
3
D
3i
+ α
4
D
4i
+ α
5
D
5i
+ …. + α
14
D
14i
+ β
2
DPK + β
3
CAR + β
4
NPL + β
5
BOPO + e Keterangan:
α
1
: Intersep konstanta perusahaan pembanding D
2
….D
14
: Dummy Variabel untuk 14 perusahaan sedangkan sisanya, satu
perusahaan D
1
dipakai sebagai
perusahaan pembanding bebas untuk memilih perusahaan mana sebagai
perusahaan pembanding. β
2
- β
5
: Koefisien Regresi
e : Error Term
2 Menghitung seberapa besar variabel independen berpengaruh terhadap
variabel dependen. 3
Menghitung apakah variabel independen secara bersama-sama berpengaruh terhadap variabel dependen dengan menggunakan uji F.