Uji Asumsi Klasik − Uji Autokorelasi

Untuk menghitung koefisien determinasi digunakan rumus sebagai berikut: R 2 = ��� ��� ………………………………………………………………………….7 SSE Sum of Square Error menunjukkan jumlah total kuadrat peubah tak bebas yang tidak dijelaskan oleh garis regresi kuadrat terkecil. Sedangkan SSR Sum of Square Regression merupakan jumlah total kuadrat yang dapat dijelaskan oleh garis regresi sedangkan TSS Total Sum of Square merupakan jumlah SSE dan SSR.

3.4.5 Uji Asumsi Klasik − Uji Autokorelasi

Uji Autokorelasi digunakan untuk menguji apakah dalam sebuah model regresi linier terdapat korelasi antara kesalahan pengganggu pada periode t dengan kesalahan pada periode t-1 sebelumnya. Asumsi dalam autokorelasi adalah: Er u i u j = o atau Con u i u j = 0 i tidak sama dengan j……………………...8 Untuk menguji Autokorelasi dapat dilihat dari nilai Durbin Waston DW, yaitu jika nilai DW terletak antara du dan 4 – dU atau du ≤ DW ≤ 4 – dU berarti bebas dari Autokorelasi, sebaliknya jika nilai DW dL atau DW 4 – dL berarti terdapat Autokorelasi. Nilai dL dan dU dapat dilihat pada tabel Durbin Watson, yaitu nilai dL ; dU ; α ; n ; k – 1 dimana n adalah jumlah sampel, k adalah jumlah variabel, dan α adalah taraf signifikan Sarwoko, 2005. Konsekuensi dari terjadinya autokorelasi menurut Sarwoko 2005 adalah sebagai berikut Autokorelasi murni tidak menyebabkan bias kofisien-koefisien estimasi. Universitas Sumatera Utara 1 Autorelasi akan meningkatkan varian pada distribusi b. 2 Autokorelasi menyebabkan OLS menaksir terlalu rendah terhadap Standar Error Koefisien. − Uji Multikolinearitas Multikolinieritas adalah masalah yang timbul pada regresi linier apabila terdapat suatu hubungan atau ketergantungan linier di antara beberapa atau semua dari peubah-peubah bebas. Jika peubah-peubah bebas tersebut saling berkorelasi, maka akan sangat sulit untuk memisahkan pengaruh mereka masing- masing terhadap peubah tak bebas dan untuk mendapatkan penaksir yang baik bagi koefisien-koefisien regresi. Masalah multikolinieritas seperti ini mungkin juga terdapat dalam analisis regresi sederhana. Masalah kolinieritas yang sempurna pada regresi linear sederhana terjadi jika nilai X i yang diamati itu sama dengan X rata-rata. Secara ekstrim, ada kemungkinan terjadi 2 peubah bebas atau lebih yang mempunyai hubungan yang sangat kuat sehingga pengaruh masing-masing peubah tersebut terhadap Y sukar untuk dibedakan. Akibat dari multikolinieritas adalah : a. Apabila hubungan tersebut sempurna, maka koefisien regresi parsial tak akan dapat diestimasi. b. Apabila hubungan tersebut tidak sempurna, maka koefisien regresi parsial masih dapat diestimasi, tetapi kesalahan baku dari penduga koefisien regresi parsial sangat besar. Hal ini menyebabkan pendugaanramalan nilai Y dengan menggunakan X dan X kurang teliti. Universitas Sumatera Utara Priyatno 2009 menyebutkan bahwa ada beberapa metode untuk menguji multikolinearitas antara lain sebagai berikut : a. Dengan membandingkan nilai koefisien determinasi individual r 2 dengan nilai determinasi serentak R 2 . Dengan kriteria pengujian adalah sebagai berikut : - Jika r 2 R 2 , maka terjadi multikolinearitas - Jika r 2 R 2 , maka tidak terjadi multikolinearitas b. Dengan melihat nilai tolerance dan inflation factor VIF pada model regresi bahwa variabel yang menyebabkan multikolinearitas dapat dilihat dari tolerance yang lebih kecil dari 0,1 atau nilai VIF yang lebih besar dari 10. Cara mengatasi masalah multikolinieritas antara lain : a. Menggunakan apriori extraneous information. Metode ini dilakukan dengan menggantikan variabel-variabel bebas yang saling berkorelasi ke variabel baru. Namun penggunaan apriori extraneous information sangat bergantung pada beberapa hal misalnya jenis informasi yang ada, tujuan analisis, dan daya kaya khayal imajinasi peneliti karena tidak ada aturan yang tetap untuk hal tersebut. b. Melakukan transformasi bentuk linier ke bentuk tak linier model regresi polinomial. c. Menggunakan model Ridge Regression. Metode tersebut dilakukan dengan cara mengembangkan metode kuadrat terkecil yang biasa dengan menambahkan parameter k untuk menentukan penaksir bias. Universitas Sumatera Utara d. Variance Inflation Factor: Salah satu cara sederhana untuk mendeteksi multikolinieritas adalah mengamati apakah korelasi antara peubah bebas X cukup besar. Cara lain yang lebih peka dan lebih formal untuk mendeteksi adanya multikolinieritas adalah variance inflation factor yang biasa disingkat VIF. VIF digunakan untuk mengukur seberapa besar perubahan varians koefisien apabila peubah bebas tidak saling berkorelasi.

3.5. Defenisi dan Batasan Operasional