b. uji t
Yaitu pengujian yang di lakukan untuk mengetahui hubungan antara pengaruh dari masing-masing variabel bebas dan secara parsial atau individu
atau secara terpisah terhadap variabel terikat dan kriteria sebagai berikut : Ho :
β
i
= 0 tidak ada pengaruh non significant H
i
: β
i
0 ada pengaruh significant T
hitung
= i …………………………… Sudrajad, 1988 : 79 Se i
Dengan derajat kebebasan sebesar n – k – 1 dimana : 1 = Koefisien Regresi
Se = Standard Error n = Jumlah Sampel
k = Jumlah Parameter Kaidah Pengujian ;
a. Apabila t
hitung
t
tabel
maka Ho di tolak dan H
i
di terima, berarti ada pengaruh antara variabel bebas dengan
variabel terikat. b.
Apabila t
hitung
t
tabel
maka Ho di terima dan di tolak, berarti tidak ada pengaruh antara variabel bebas dengan
variabel terikat.
Gambar 6 : Distribusi Penerimaan dan Penolakan hipotesis
Sumber :
Sudrajad, MSW, 1988, Mengenal Ekonomimetrika Pemula, Cetakan kedua, CV Armico, bandung hal : 94.
3.5. Asumsi Klasik Analisis Regresi Linier
Pengujian ini di maksudkan untuk mendeksi ada tidaknya autokorelaasi, multikolinieritas, dan heterokedasitas dalam hasil estimasi,
karena apabila terjadi penyimpangan terhadap asumsi klasik tersebut, uji t dan uji f yang dilakukan sebelumnya menjadi tidak valid dan secara
statistik dapat mengacaukan kesimpulan yang di peroleh, untuk itu di lakukan uji asumsinya.
Tujuan utama penggunaan uji asumsi klasik adalah untuk mendapatkan koefisien regresi yang terbaik linier dan tidak biasBLUE=
Best Linier Unbiased Estimator , sifat dari Best Linier Unbiased
Estimator BLUE itu sendiri adalah :
a. Best = Pentingnya sifat ini bila di terapkan dan di uji significant
buku terhadap dan . b.
Linier = Sifat ini di butuhkan untuk memudahkan dalam penaksiran.
Daerah Penerimaan Ho
-t
tabel
Daerah Penolakan Ho
Daerah Penolakan Ho
t
tabel
c. Unbiased = Nilai jumlah sample sangat besar penaksir parameter di
peroleh dari sample besar kira-kira lebih mendekati nilai parameter sebenarnya
d. Estimasi = e diharapkan sekecil mungkin.
Untuk melakukan suatu regresi linier perlu memperhatikan beberapa hal antara lain tidak terjadi autokorelasi, tidak terjadi
heterokedasitas, tidak terjadi multikolinieritas.
1. Autokorelasi
Autokorelasi di definisikan sebagai korelasi yang terjadi antara angota observasi yang terletak berderetan secara series dalam
bentuk waktu jika datanya time series atau korelasi antara tempat yang berderet atau berdekatan kalau datanya cross sectional Sudrajad,
1988 : 213. Untuk
mengetahui ada
tidaknya korelasi
dapat menggunakan metode Durbin Watson :
t=N
e
-
e
t
-1
d=t=2
………………………Sudrajad, 1988 : 213
t=N
e
2 t
t=1
Keterangan : d = Nilai Durbin Watson Et = Residual pada waktu ke t
Et-1 = Residual pada waktu ke t-1 satu periode sebelumnya. N = Banyaknya Data Sudrajad, 1988 : 219.
Asumsi pertama dalam regresi linier adalah ada atau tidaknya autokorelasi yang dilihat dari besarnya nilai Durbin Watson, untuk mengetahui ada
tidaknya gejala autokorelasi maka perlu dilihat tabel kriteria pengujian Durbin Watson Uji DW.
Gambar 7 : Kurva Statistik Durbin Watson
Daerah Daerah
Daerah Daerah
Kritis Ketidak
ketidak Kritis
pastian pastian
Terima Ho Tidak ada
Tolak Ho
Ho O
d
1
du 4-du 4-d
1
Tabel 1. Kriteria Pengujian Durbin Watson
DW KESIMPULAN
Kurang dari 1,10 1,10 dan 1,54
1,55 dan 2,46 2,46 dan 2,90
Lebih dari 2,90 Ada Autokorelasi
Tanpa Kesimpulan Tidak Ada
Autokorelasi Tanpa Kesimpulan
Ada Autokorelasi
2. Heterokedastisitas
Heterokedastisitas adalah gejala dimana varians tidak sama atau tidak homogen hal ini bisa di ketahui berdasarkan pengujian korelasi Rank
Spearman. Yaitu dengan cara mengambil nilai mutlak dengan mengansumsikan bahwa koefisien rank korelasi adalah nol. Jika hasil
regresi menunjukkan nilai signifikan t ≥ nilai a, maka regresi linier tidak
terdapat heterokedastisitas. Dan nilai residual kuadrat adalah Y observasi – Y prediksi
2
. Koefisien Rank Spearman :
di
Rs = 1-6 = ……………………………. Sudrajad, 1988 : 198 NN
2
– 1 Keterangan : d = Selisih dalam rank antara residual dengan variabel bebas K1
N = Jumlah Pengamatan. Sudrajad, 1988 : 198.
3. Multikolinieritas
Multikolinieritas adalah adanya hubungan yang sempurna antara semua atau beberapa variabel eksplonatori dalam model regresi yang di kemukakan.
Untuk mendeteksi adanya multikolinieritas dapat dilihat dengan ciri-ciri sebagai berikut :
a. Koefisien determinasi berganda R
2
tinggi. b. Koefisien korelasi sederhananya tinggi.
c. Nilai F
hitung
tinggi signifikan sebagian besar atau bahkan seluruh koefisien regresi tidak signifikan
Sudrajad, 1988 : 167.
50
BAB IV HASIL PENELITIAN DAN PEMBAHASAN