55
1. Uji Asumsi Klasik
Model regresi yang diperoleh dari metode kuadrat terkecil biasa Ordinary Least SquareOLS merupakan model regresi yang
menghasilkan estimator linier tidak bias yang terbaik Best Linier Unbias EstimatitorBLUE. Kondisi ini akan terjadi jika dipenuhi beberapa asumsi,
yang disebut dengan asumsi klasik diantaranya : Nonmultikolinieritas. Artinya,antara variabel independen yang satu dengan independen yang lain
dalam model regresi tidak saling berhubungan secara sempurna atau mendekati sempurna. Homoskedastisitas. Artinya, varians semua variabel
adalah konstan sama. Nonautokorelasi. Artinya tidak terdapat pengaruh dari variabel dalam model melalui tenggang waktu time lag. Misalnya,
nilai suatu variabel saat ini akan berpengaruh terhadap nilai variabel lain pada masa yang akan datang Algifari,2013:83. Berikut beberapa asumsi
klasik yang digunakan dalam penelitian ini : a. Uji Normalitas
Uji asumsi normalitas menguji data variabel bebas X dan data variabel terikat Y pada persamaan regresi yang dihasilkan, apakah
berdistribusi normal atau berdistribusi tidak normal. Persamaan regresi dikatakan baik jika mempunyai data variabel bebas dan data variabel
terikat berdistribusi mendekati normal atau normal sama sekali sunyoto, 2009:84.
Uji Normalitas bertujuan untuk menguji apakah dalam model regresi, variabel pengganggu atau residual memiliki distribusi normal.
56 Seperti diketahui bahwa Uji t dan F mengasumsikan bahwa nilai
residual mengikuti distribusi normal. Kalau asumsi ini dilanggar maka uji statistic menjadi tidak valid untuk jumlah sampel kecil. Untuk
mendeteksi apakah residual berdistribusi normal atau tidak dapat digunakan analisis grafik Ghazali 2013 :
1 Analisis grafik Salah satu cara termudah untuk melihat normalitas revidual
adalah dengan melihat grafik histogram yang membandingkan antara data observasi dengan distribusi yang mendekati distribusi
normal. Namun demikian hanya dengan melihat histogram hal ini dapat menyesatkan khususnya untuk jumlah sampel yang kecil.
Metode yang lebih handal adalah dengan melihat normal probability plot yang membandingkan distribusi kumulatif dari
distribusi normal. Distribusi normal akan membentuk satu garis lurus diagonal, dan ploting data residual akan dibandingkan dengan
garis diagonal. Jika distribusi data residual normal, maka garis yang menggambarkan data sesungguhnya akan mengikuti garis
diagonalnya. 2 Analisis Statistik
Uji statistik yang dapat digunakan untuk menguji normalitas residual adalah uji statistik non-parametrik Kolmogorov-Smirnov
K-S. Uji K-S dilakukan dengan membuat hipotesis: H0 : Data residual berdistribusi normal
57 HA : Data residual tidak berdistribusi normal
b. Uji Multikolinieritas Dalam uji asumsi klasik, terdapat beberapa penyimpangan yang
akan sangat berpengaruh terhadap pola perubahanan variabel dependen. Penyimpangan tersebut salah satunya adalah adanya multikolinearitas
dalam model regresi yang dihasilkan. Artinya, antarvariabel independen yang terdapat dalam model memiliki hubungan yang
sempurna atau mendekati sempurna koefisien korelasinya tinggi atau bahkan 1.
Konsekuensi yang sangat penting bagi model regresi yang mengandung multikolinearitas adalah bahwa kesalahan standar estimasi
akan cenderung meningkat dengan bertambahnya variabel independen, tingkat signifikansi yang digunakan untuk menolak hipotesis nol akan
semakin besar, dan probabilitas menerima hipotesis yang salah kesalahan beta juga akan semakin besar. Akibatnya, model regresi
yang diperoleh tidak sahih valid untuk menaksir nilai variabel independen.
Menghilangkan adanya multikolinearitas pada suatu model regresi terdapat bermacam-macam cara. Cara yang paling mudah adalah
menghilangkan salah satu atau beberapa variabel yang mempunyai korelasi tinggi dari model regresi. Jika ini dilakukan berarti melakukan
kesalahan spesifik, karena mengeluarkan variabel independen dari model regresi yang secara teoritis variabel tersebut dapat
58 mempengaruhi variabel dependen. Cara lain yang dapat dilakukan
adalah dengan menambah data. Cara ini akan bermanfaat jika dapat dipastikan bahwa adanya multikolinearitas dalam model regresi
disebabkan oleh kesalahan sampel. Di samping kedua cara tersebut, terdapat cara yang sering digunakan, yaitu dengan mentransformasi
variabel. Nilai variabel yang digunakan mundur satu tahun Algifari,2013:84.
Untuk mendeteksi ada atau tidaknya multikolinearitas di dalam model regresi, dapat dilihat dari nilai tolerance dan Variance Inflation
Factor VIF. Kedua ukuran ini menunjukan setiap variabel independen manakah yang dijelaskan oleh variabel independen lainnya.
Tolerancemengukur variabilitas variabel independen yang terpilih yang dijelaskan oleh variabel independen lainnya. Jadi nilai tolerance yang
rendah sama dengan nilai VIF tinggi karena VIF = 1Tolerance. Nilai cutoff yang umum dipakai untuk menunjukan adanya multikolinieritas
adalah nilai tolerance ≤0.10 atau sama dengan nilai VIF ≥ 10 Ghazali
2013. c. Uji Heteroskedastisitas
Uji Heteroskedastisitas bertujuan menguji apakah dalam model regresi terjadi ketidaksamaan variance dari residual satu pengamatan ke
pengamatan yang lain. Jika variance dari residual satu pengamatan ke pengamatan lain tetap, maka disebut Homoskedastisitas dan jika
berbeda disebut Heteroskedastisitas. Model regresi yang baik adalah
59 yang homoskedastisitas atau tidak terjadi Heteroskedastisitas.
Kebanyakan data crosssection mengandung situasi heteroskedastisitas karena data ini menghimpun data yang mewakili berbagai ukuran
kecil, sedang dan besar. Untuk mendeteksi ada atau tidaknya heteroskedastisitas di dalam
model regresi, dapat dilakukandengan cara melihat Grafik Plot antara nilai prediksi variabel terikat dependen yaitu ZPRED dengan
residualnya SRESID. Deteksi ada tidaknya pola heteroskedastisitas data dilakukan dengan melihat ada tidaknya pola tertentu pada grafik
scatterplot antara SRESID dan ZPRED dimana sumbu Y adalah Y yang diprediksi, dan sumbu X adalah residual Y prediksi
– Y sesungguhnya yang telah di-studentized.
Dasar analisis : 1 Jika ada pola tertentu, seperti titik-titik yang ada membentuk
pola tertentu yang teratur bergelombang, melebar kemudian menyempit,
maka mengindikasikan
telah terjadi
heteroskedastistias. 2 Jika tidak ada pola yang jelas, serta titik-titik menyebar di atas
dan dibawah angka 0 pada sumbu Y, maka tidak terjadi heteroskedastisitas.
Uji statistik untuk mendeteksi heteroskedastisitas salah satunya yaitu Uji Glesjer. Glesjer mengusulkan untuk meregresi nilai absolut
60 residual terhadap variabel independen Gujarati, 2003 dengan
persamaan regresi: |Ut| =
Xt + vt Dimana:
|Ut| = Nilai residual absolut Xt = Variabel bebas
Jika nilai dari probabilitas signifikansinya di atas tingkat kepercayaan 5, maka dapat disimpulkan bahwa model regresi tidak
mengandung adanya Heterokedastisitas.Ghozali, 2013:142 d. Uji Autokorelasi
Penyimpangan model regresi klasik yang selanjutnya adalah adanya otokorelasi dalam model regresi. Artinya, adanya korelasi antara
anggota sampel yang diurutkan berdasar waktu. Penyimpangan asumsi ini biasanya muncul pada observasi yang menggunakan data time
seriesKonsekuensi dari adanya otokorelasi dalam suatu model regresi adalah varianssampel tidak dapat menggambarkan varians populasinya.
Lebih jauh lagi, model regresi yang dihasilkan tidak dapat digunakan untuk menaksir nilai variabel dependen pada nilai variabel independen
tertentu Algifari 2013. Model regresi yang baik adalah regresi yang bebas dari
autokorelasi. Ada beberapa cara yang dapat digunakan untuk mendeteksi ada atau tidaknya autokorelasi Ghazali 2013.
61 1 Uji Durbin-Watson DW test
Uji Durbin Watson hanya digunakan untuk autokorelasi tingkat satu first order autocorrelation dan mensyaratkan
adanya intercept konstanta dalam model regresi dan tidak ada variabel lag di antara variabel independen. Hipotesis yang akan
diuji adalah : H
: tidak ada autokorelasi r = 0 H
a
: ada autokorelasi r ≠ 0
Pengambilan keputusan ada tidaknya autokorelasi :
Tabel 3.1 Pengambilan Keputusan Autokorelasi
Hipotesis nol Keputusan
Jika Tidak ada autokorelasi
positif Tolak
0ddl
Tidak ada autokorelasi positif
No decision dl
≤d≤du
Tidak ada
korelasi negative
Tolak 4-dld4
Tidak ada
korelasi negatif
No decision 4-du
≤d≤4-dl
Tidak ada autokorelasi, positif atau negatif
Tidak ditolak Dud4-du
2 Pengobatan Autokorelasi Oleh karena adanya autokorelasi, maka nilai standard error se
dan nilai t-statistik tidak dapat dipercaya sehingga diperlukan pengobatan. Pengobatan autokorelasi tergantung dari nilai
ρ yang
62 dapat diestimasi dengan beberapa cara seperti di bawah ini
Ghazali,2013:130 : a. Nilai
ρ diestimasi dengan Durbin-Watson d ρ=1-
d 2
b. Nilai ρ diestimasi dengan Theil-Nagar d
ρ= n
2
1-
d 2
+ k
2
n
2
-k
2
Langkah Analisis : 1. Dapatkan nilai lag satu residual Ut-1 dengan perintah
Transform dan Compute 2. Isikan pada target variabel Ut_1 dan isikan pada kotak Numeric
Expression LagRes_1 3. Dari menu utama spss, pilih Analyze, kemudian submenu
Regressi, lalu pilih Linear 4. Pada kotak dependent isikan variabel Res_1 Ut dan pada
kotak independent isikan variabel Ut-1 Lag satu dari Ut. Abaikan yang lain dan pilih Ok
5. Gunakan nilai ρ pada iterasi pertama untuk mentransformaikan
persamaan regresi. Langkah Iterasi :
1. Membentuk variabel TBHt_1, ROAt_1, BOPOt_1, NPFt_1, dan DPKt_1 dengan perintah Transform dan Compute. Pada kotak
Target Variabel isikan dengan TBHt_1 dan pada kotak Numeric
63 Expression isikan TBH-
ρ LagTBH . lakukan hal yang sama untuk semua variabel independen.
2. Dari menu utama spss pilih Analyze, kemudian Regression, lalu pilih Linear. Pada kotak dependent isikan variabel TBHt_1, dan
pada kotak independen variabel isikan variabel , ROAt_1, BOPOt_1, NPFt_1, dan DPKt_1
3. Pilih statistik dan aktifkan Durbin-Watson untuk menguji apakah masih terjadi autokorelasi. Abaikan lainnya dan pilih
Ok 4. Membandingkan hasil regresi persamaan awal sebelum
dilakukan transformasi dan hasil regresi setelah dilakukan transformasi jika masih terdapat autokorelasi, maka lanjutkan
tahapan selanjutnya. Langkah iterasi kedua :
1. Nilai yang diperoleh dari iterasi pertama kita gunakan untuk
mengestimasi model general difference equation sebagai berikut:
Yt- Yt-1 = 11- + 2Xt- Xt-1+t - t – 1
2. Oleh karena kita belum memiliki beberapa variabel seperti Yt-1 dan
Xt-1, maka kita membuat variabel ini dengan perintah Transform dan Compute.
3. Pilih Transform dan Compute dan isikan pada Target Variabel
64 TBHt_1 = TBH-
LagTBH lakukan juga pada variabel independennya.
Dari menu utama SPSS, pilih menu Analyze kemudian Regression lalu Linear
4. Pada kotak dependen isikan variabel dependennya TBHt_1 5. Pada kotak independen isikan variabel independenya
Hitung persamaan : t = Yt-12 Xt
6. Pilih Transform lalu Compute dan isikan seperti di bawah ini: 7. Pilih OK, sekarang kita punya variabel baru Ut
8. Buat variabel Lag satu Ut dengan Transform dan Compute 9. Langkah berikutnya mengestimasi
pada iterasi kedua dengan persamaan regresi
10. Dari menu utama SPSS pilih Analyze kemudian Regression lalu Linear
11. Pada kotak dependen isikan Ut 12. Pada kotak independen isikan LagUt
13. Pilih OK 14. Gunakan nilai
pada iterasi kedua untuk mentransformasikan persamaan regresi.
15. Pilih Transform lalu Compute Isikan Target Variabel dengan TBH dan Numeric Expression
isikan TBH = TBH-0.916LAGTBH Lakukan untuk semua variabel X-nya
65 16. Dari menu utama spss pilih Analyze, kemudian Regression, lalu
pilih Linear. Pada kotak dependent isikan variabel TBH, dan pada kotak independen variabel isikan variabel, ROA,
BOPO, NPF, dan DPK 17. Pilih statistik dan aktifkan Durbin-Watson untuk menguji
apakah masih terjadi autokorelasi. Abaikan lainnya dan pilih Ok
18. Bandingkan nilai Durbin-Watson saat ini, apakah masih terjadi autokoreasi atau tidak jika nilai d terletak antara nilai dU
dengan 4-Du, maka dapat disimpulkan bahwa model persamaan regresi tersebut sudah tidak mengandung masalah autokorelasi
lagi.
2. Uji Statistik