42
dari berbagai data sekunder yang diperoleh melalui berbagai instansi-instansi dan badan-badan yang terkait.
3.2.3. Sumber Data
Data penelitian diperoleh dari Badan Pusat Statistik Propinsi Jawa Timur, Bank Indonesia dan
www.idx.co.id dan PRPM Bursa Efek Surabaya.
3.4. Teknik Analisis dan Uji Hipotesis
Dalam penelitian ini menggunakan analisis ekonometrika, yang sebenarnya merupakan perluasan dari analisis regresi yang disesuaikan dengan
kebutuhan ekonomi Ananta, 2001: 2. Analisis ekonometrika berusaha mencari hubungan sebab akibat antara 2 atau lebih variabel yang sangat berguna untuk
mengestimasi model persamaan regresi dengan menggunakan model OLS Ordinary Least Square atau metode kuadrat terkecil. Model analisis yang
digunakan dalam penelitian ini adalah: Y =
+
1
X
1
+
2
X
2
+
3
X
3
+
4
X
4
+
5
X
5
+
6
X
6
+
Keterangan: Y
= Suku bunga tabungan X
1
= Likuiditas perekonomian X
2
= Inflasi
X
3
= Pertumbuhan ekonomi X
4
= CAR
43
X
5
= ROA
X
6
= LDR
= konstanta
1-6
= koefisien
regresi
= faktor galat Asumsi yang digunakan metode ini didasarkan pada beberapa asumsi regresi
linear klasik, yaitu Supranto, 1984:1 : 3.4.1. Uji Gejala Penyimpangan Asumsi Klasik.
3.4.1.1. Multikolinieritas
Multikolinierlitas berarti Gujarati, 1997: 157-158 adanya hubungan menjelaskan dari model regresi. Idetifikasi secara statistik untuk mengetahui ada
atau tidaknya gejala mutikolinier dapat dilakukan dengan menghitung nilai VIF Varience Inflation Factor.
VIF menyatakan tingkat pembengkakan varians, apabila nilai VIF lebih besar dari 10 maka ini berari terdapat multikolinier pada
persamaan regresi. 3.4.1.2. Autokorelasi
Autokorelasi merupakan korelasi antara anggota serangkaian observasi yang diurutkan berdasarkan waktu time series atau yang diambil pada waktu
tertentu cross sectional yang didalam konteks regresi linier klasik
44
mengasumsikan bahwa autokorelasi seperti itu tidak terdapat dalam distribusi atau ganguan ei Gujarati 1997:201.
Pengujian autokorelasi bertujuan untuk menguji apakah dalam suatu model regresi linier klasik antar keaslahan pengganggu pada periode t dengan
periode t-1 sebelumnya. Identifikasi gejala autokorelasi dapat dilihat pada kurva di bawah ini:
Gambar 1: Kelompok Daerah Dalam Uji D-W
Kriteria pengujian adanya Autokorelasi menurut Gujarati 1997: 216:
4-dU DW
4-dL d
dU = dL
Ada Autoko
relasi Positif
Daer ah
Kritis Daerah
Ketidak- pastian
atau keragu-
raguan Tidak Ada
Autokorelasi positif dan
tidak ada Autokorelasi
negatif Daerah
Ketidak- pastian
atau keragu-
raguan Daer
ah Kritis
Menolak H Tidak
Menolak H Menolak H
Ada Autoko
relasi Neg
a tif
d
Sumber: Gujarati 1997: 216 f d
1. Angka D-W dibawah –2 ada autokorelasi positif
2. Angka D-W diatas +2 ada autokorelasi negatif
3. Angka Berada diantara –2 sampai +2 Tidak ada Autokorelasi atau
Membandingkan dengan Tabel Durbin Watson
45
3.4.1.3. Heteroskedastisitas Untuk menguji ada tidaknya heteroskedastisitas, pada regresi linier tidak
boleh ada hubungan dengan variabel bebas. Hal ini didefinisikan dengan cara menghitung korelasi Rank Spearman antara residual dengan seluruh variabel
bebas, apabila tingkat signifikan korelasi Rank Spearman lebih besar dari 0.05
maka tidak heteroskedasitsitas, untuk mengidentifikasi ada atau tidaknya
heteroskedasitas secara statistik dapat diketahui dengan melihat korelasi Rank Spearman. Gujarati, 1997: 157-158.
3.4.2. Uji Hipotesis
A. Uji F Uji secara simultan
Untuk melihat pengaruh secara simultan seluruh variabel bebas secara bersama-sama terhadap variabel terikat dengan prosedur sebagai berikut :
1. Ho :
β
1
= β
2
= β
3
= 0, tidak ada pengaruh yang signifikan X
1,
X
2,
X
3,
X
4,
X
5,
dan X
6
terhadap Y Hi : salah satu dari
β
1
≠ 0, ada pengaruh yang signifikan X
1,
X
2,
X
3,
X
4,
X
5,
dan X
6
terhadap Y 2.
Level of significant = 5 3.
Kriteria pengujian sebagai berikut: a.
Jika F
hitung
≥ F
tabrl
maka H ditolak dan Hi diterima yang berarti
bahwa variabel bebas secara simultan berpengaruh signifikan terhadap variabel terikat.
46
abel terikat.
b.
Jika F
hitung
≤ F
tabel
maka H diterima dan Hi ditolak yang berarti
bahwa variabel bebas secara simultan tidak berpengaruh signifikan terhadap variabel terkait.
B.
Uji t Uji secara parsial
Untuk melihat pengaruh masing-masing variabel bebas secara parsial terhadap variabel terkait.
1. Ho :
β
1
= 0, tidak ada pengaruh yang signifikan variabel bebas terhadap variabel terikat.
Hi : β
1
≠ 0, ada pengaruh yang signifikan variabel bebas terhadap variabel terikat.
2. Level of significant = 5
3. Kreteria pengujian sebagai berikut :
a. Jika t
hitung
-t
tabel
atau t
hitung
t
tabel
maka H ditolak dan Hi
diterima yang berarti bahwa variabel bebas secara parsial berpengaruh signifikan terhadap vari
b. Jika –t
tabel
≤ t
hitung
≤ t
tabel
maka H diterima dan Hi ditolak yang
berarti bahwa variabel bebas secara parsial tidak berpengaruh signifikan terhadap variabel terikat.
BAB IV ANALISIS DAN PEMBAHASAN