uji t Asumsi Klasik Analisis Regresi Linier

b. uji t

Yaitu pengujian yang di lakukan untuk mengetahui hubungan antara pengaruh dari masing-masing variabel bebas dan secara parsial atau individu atau secara terpisah terhadap variabel terikat dan kriteria sebagai berikut : Ho : β i = 0 tidak ada pengaruh non significant H i : β i 0 ada pengaruh significant T hitung = i …………………………… Sudrajad, 1988 : 79 Se i Dengan derajat kebebasan sebesar n – k – 1 dimana : 1 = Koefisien Regresi Se = Standard Error n = Jumlah Sampel k = Jumlah Parameter Kaidah Pengujian ; a. Apabila t hitung t tabel maka Ho di tolak dan H i di terima, berarti ada pengaruh antara variabel bebas dengan variabel terikat. b. Apabila t hitung t tabel maka Ho di terima dan di tolak, berarti tidak ada pengaruh antara variabel bebas dengan variabel terikat. Gambar 6 : Distribusi Penerimaan dan Penolakan hipotesis Sumber : Sudrajad, MSW, 1988, Mengenal Ekonomimetrika Pemula, Cetakan kedua, CV Armico, bandung hal : 94.

3.5. Asumsi Klasik Analisis Regresi Linier

Pengujian ini di maksudkan untuk mendeksi ada tidaknya autokorelaasi, multikolinieritas, dan heterokedasitas dalam hasil estimasi, karena apabila terjadi penyimpangan terhadap asumsi klasik tersebut, uji t dan uji f yang dilakukan sebelumnya menjadi tidak valid dan secara statistik dapat mengacaukan kesimpulan yang di peroleh, untuk itu di lakukan uji asumsinya. Tujuan utama penggunaan uji asumsi klasik adalah untuk mendapatkan koefisien regresi yang terbaik linier dan tidak biasBLUE= Best Linier Unbiased Estimator , sifat dari Best Linier Unbiased Estimator BLUE itu sendiri adalah : a. Best = Pentingnya sifat ini bila di terapkan dan di uji significant buku terhadap dan . b. Linier = Sifat ini di butuhkan untuk memudahkan dalam penaksiran. Daerah Penerimaan Ho -t tabel Daerah Penolakan Ho Daerah Penolakan Ho t tabel c. Unbiased = Nilai jumlah sample sangat besar penaksir parameter di peroleh dari sample besar kira-kira lebih mendekati nilai parameter sebenarnya d. Estimasi = e diharapkan sekecil mungkin. Untuk melakukan suatu regresi linier perlu memperhatikan beberapa hal antara lain tidak terjadi autokorelasi, tidak terjadi heterokedasitas, tidak terjadi multikolinieritas.

1. Autokorelasi

Autokorelasi di definisikan sebagai korelasi yang terjadi antara angota observasi yang terletak berderetan secara series dalam bentuk waktu jika datanya time series atau korelasi antara tempat yang berderet atau berdekatan kalau datanya cross sectional Sudrajad, 1988 : 213. Untuk mengetahui ada tidaknya korelasi dapat menggunakan metode Durbin Watson : t=N e - e t -1 d=t=2 ………………………Sudrajad, 1988 : 213 t=N e 2 t t=1 Keterangan : d = Nilai Durbin Watson Et = Residual pada waktu ke t Et-1 = Residual pada waktu ke t-1 satu periode sebelumnya. N = Banyaknya Data Sudrajad, 1988 : 219. Asumsi pertama dalam regresi linier adalah ada atau tidaknya autokorelasi yang dilihat dari besarnya nilai Durbin Watson, untuk mengetahui ada tidaknya gejala autokorelasi maka perlu dilihat tabel kriteria pengujian Durbin Watson Uji DW. Gambar 7 : Kurva Statistik Durbin Watson Daerah Daerah Daerah Daerah Kritis Ketidak ketidak Kritis pastian pastian Terima Ho Tidak ada Tolak Ho Ho O d 1 du 4-du 4-d 1 Tabel 1. Kriteria Pengujian Durbin Watson DW KESIMPULAN Kurang dari 1,10 1,10 dan 1,54 1,55 dan 2,46 2,46 dan 2,90 Lebih dari 2,90 Ada Autokorelasi Tanpa Kesimpulan Tidak Ada Autokorelasi Tanpa Kesimpulan Ada Autokorelasi

2. Heterokedastisitas

Heterokedastisitas adalah gejala dimana varians tidak sama atau tidak homogen hal ini bisa di ketahui berdasarkan pengujian korelasi Rank Spearman. Yaitu dengan cara mengambil nilai mutlak dengan mengansumsikan bahwa koefisien rank korelasi adalah nol. Jika hasil regresi menunjukkan nilai signifikan t ≥ nilai a, maka regresi linier tidak terdapat heterokedastisitas. Dan nilai residual kuadrat adalah Y observasi – Y prediksi 2 . Koefisien Rank Spearman : di Rs = 1-6 = ……………………………. Sudrajad, 1988 : 198 NN 2 – 1 Keterangan : d = Selisih dalam rank antara residual dengan variabel bebas K1 N = Jumlah Pengamatan. Sudrajad, 1988 : 198.

3. Multikolinieritas

Multikolinieritas adalah adanya hubungan yang sempurna antara semua atau beberapa variabel eksplonatori dalam model regresi yang di kemukakan. Untuk mendeteksi adanya multikolinieritas dapat dilihat dengan ciri-ciri sebagai berikut : a. Koefisien determinasi berganda R 2 tinggi. b. Koefisien korelasi sederhananya tinggi. c. Nilai F hitung tinggi signifikan sebagian besar atau bahkan seluruh koefisien regresi tidak signifikan Sudrajad, 1988 : 167. 50

BAB IV HASIL PENELITIAN DAN PEMBAHASAN