Two Stage Least Square 2SLS Uji Asumsi klasik

xcix Persamaan just identified diselesaikan dengan Indirect Least Square ILS 2. Jika 1 − − m K κ , maka persamaan tersebut over identified. Persamaan over identified diselesaikan dengan Two Stage Least Square 2SLS. 3. Jika 1 − − m K κ maka persamaan tersbut unidentified atau tidak dapat diidentifikasi

3.4.5 Two Stage Least Square 2SLS

Metode 2SLS digunakan untuk model regresi persamaan simultan yang mngandung persamaan-persamaan yang over identified. Meskipun demikian, 2SLS juga bisa digunakan untuk mnyelesaikan persamaan yang identified. Metode ini dikembangkan oleh Henri Theil dan Robert Basmann Gujarati, 2003. Tujuan aplikasi 2SLS adalah untuk memurnikan purifying variabel endogen terhadap stokastik disturbance. Tujuan ini dicapai dengan melakukan regresi persamaan reduced form yaitu regresi variabel endogen terhadap seluruh predetreminded variable. Untuk mendapatkan nilai variabel endogen fitted dari regresi persamaan struktural dengan variabel endogen yang sudah diestimasi dari regresi variabel endogen terhadap predetreminded variable Gujarati, 2003. Penaksiran 2SLS terdiri dari dua tahap perhitungan : 1. Dengan mngaplikasikan metode OLS terhadap persamaan-persamaan reduced form. Berdasarkan nilai-nilai koefisien regresi variabel-variabel bebas dalam persamaan reduced for ini, diperoleh taksiran variabel- variabel endogen fitted dalam persamaan-persamaan ini. c 2. Taksiran nilai variabel-variabel endogen yang diperoleh dari perhitungan tahap pertama disubstitusikan ke dalam persamaan simultan sehingga setiap persamaan dalam sistem persamaan simultan ini mengalami transformasi. Penaksiran nilai parameter-parameter dalam regresi persamaan simultan dilakukan dengan mengaplikasikan metode OLS terhadap persamaan-persamaan yang telah mengalami transformasi ini.

3.4.6 Uji Asumsi klasik

Uji asumsi klasik yang akan dilakukan dalam penelitian ini adalah uji heteroskedastisitas, uji autokorelasi dan uji multikolinearitas.

3.4.6.1 Uji Heteroskedastisitas

Salah satu asumsi penting model regresi model linier klasik adalah tiap unsur disturbance error, tergantung pada nilai yang dipilih dari variabel yang menjelaskan adalah suatu angka konstan yang sama dengan 2 σ . Ini merupakan asumsi homoskedastisitas atau varians yang sama Gujarati, 2003. Heteroskedastisitas muncul apabila residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi yang lainnya. Artinya, setiap observasi mempunyai reliabilitas yang berbeda akibat perubahan dalam kondisi yang melatar belakangi tidak terangkum dalam spesifikasi model. Konsekuensi estimasi OLS jika menghadapi heteroskedastisitas adalah penaksir OLS yang masih tetap linier dan tidak bias tetapi tidak Best lagi dan penaksir OLS menjadi tidak efisien karena variansnya tidak lagi minimum. ci Salah satu cara yang dapat digunakan untuk menguji ada tidaknya heteroskedastisitas dalam suatu varians error term suatu model regresi adalah metode white. Pengujiannya adalah jika χ 2 hitung χ 2 tabel, maka tidak terdapat heteroskedastisitas.

3.4.6.2 Uji Autokorelasi

Suatu asumsi penting dari model linier klasik adalah tidak ada autokorelasi. Autokorelasi adalah keadaan dimana disturbance term pada periode tertentu berkorelasi dengan disturbance term pada periode lain yang berurutan. Akibat adanya autokorelasi adalah parameter yang diamati menjadi bias dan variansnya tidak minimum. Penelitian ini akan menggunakan Breusch-Godfrey BG Test untuk melihat gejala autokorelasi. Pengujian dengan BG test dilakukan dengan meregres variabel penganggu Ut menggunakan autoregressive model dengan orde ρ : t U U U Ut t t t Σ + + + + = − − − ρ ρ ρ ρ ρ ........ 2 2 1 1 70 Dengan hipotesa nol H0 adalah : ..... 2 1 = = = ρ ρ ρ ρ , dimana koefisien autoregressive secara simultan sama dengan nol menunjukkan bahwa tidak terdapat autokorelasi pada setiap orde. Atau pengujiannya adalah jika χ 2 hitung χ 2 tabel, maka tidak terdapat autokorelasi. 3.4.6.3Uji Multikolinearitas Salah satu asumsi model regresi klasik adalah tidak terdapat multikolinearitas diantara variabel independen dalam model regresi. Menurut gujarati 2003 multikolinearitas berarti adanya hubungan sempurna atau pasti cii antara beberapa variabel independen atau semua variabel independen dalam model regresi. Penelitian ini akan menggunakan auxiliary regression untuk mendeteksi adanya multikolinearitas. Kriterianya adalah jika R 2 regresi persamaan utama lebih besar dari R 2 regresi parsial variabel-variabel independent. 3.4.7 Uji Goodness Of Fit 3.4.7.1 Uji Signifikansi Parameter Individual Uji t