Kriteria Ekonometrika METODE PENELITIAN

3.5. Kriteria Ekonometrika

Tujuan regresi linier adalah mempelajari hubungan linier antara dua variabel. Dua variabel ini dibedakan menjadi variabel bebas L, K, R, E, TFP dan variabel tidak bebas Y. Variabel bebas adalah variabel yang dapat dikontrol, sedangkan variabel tidak bebas adalah variabel yang mencerminkan respon dari variabel bebas. Dalam analisis regresi terdapat tiga asumsi yang harus dipenuhi yaitu: 1. Heteroskedastisitas Salah satu asumsi pokok dalam model regresi linier klasik adalah bahwa varian setiap disturbance term yang dibatasi oleh nilai tertentu mengenai variabel- variabel bebas adalah berbentuk suatu nilai konstan yang sama dengan σ 2 . Asumsi ini yang disebut sebagai Homoskedasticity atau varian yang sama. E μ i 2 = σ 2 i = 1,2,3,…,n 3.10 Heteroskedastisitas terjadi jika ragam atau varians tidak konstan. Dampak heteroskedastisitas terhadap OLS adalah: a. Varians lebih besar dari taksiran. b. Akibat lebih besarnya varians taksiran, maka uji-t dan uji F menjadi kurang akurat karena kedua uji tersebut menggunakan besaran varian taksiran. c. Selain itu, lebih besarnya varians taksiran akan mengakibatkan standard error taksiran juga lebih besar sehingga interval kepercayaan menjadi sangat besar. d. Ketiga dampak tersebut menyebabkan kesimpulan yang diambil menjadi tidak benar. Pengujian untuk mendeteksi gejala ini salah satunya dapat menggunakan White Heteroscedasticity Test Gujarati, 1993. Pengujian dilakukan dengan cara melihat probabilitas ObsR-squared. Kriteria uji yang digunakan adalah: ƒ Jika nilai probabilitas pada ObsR-squared taraf nyata tertentu maka persamaan tersebut mengalami homoskedastisitas. ƒ Jika nilai probabilitas pada ObsR-squared taraf nyata tertentu maka persamaan tersebut mengalami heteroskedastisitas. 2. Autokorelasi Autokorelasi merupakan gejala adanya korelasi antara serangkaian observasi yang diurutkan menurut deret waktu time series Gujarati, 1993. Autokorelasi terjadi jika antara nilai error yang satu dengan yang lainnya tidak bersifat bebas. Dampak adanya autokorelasi terhadap OLS adalah: a. Selang kepercayaan suatu persamaan akan semakin lebar dan pengujian menjadi kurang akurat; b. Varians residual yang diperoleh akan lebih rendah daripada semestinya; c. Lebih kecilnya varians residual yang diperoleh mengakibatkan hasil uji-t dan uji-F menjadi tidak sah serta R 2 menjadi lebih tinggi; d. Akibat lainnya adalah penaksir regresi akan menjadi sensitif terhadap fluktuasi pengambilan contoh. Pengujian untuk mendeteksi gejala ini salah satunya dapat menggunakan uji Durbin Watson Statistic D-W. Nilai D-W yang berada pada kisaran angka dua menandakan tidak terdapat autokorelasi. Sebaliknya, jika semakin jauh dari angka dua maka peluang terjadinya autokorelasi semakin besar. Namun jika nilai D-W jatuh pada daerah ragu-ragu maka hasil uji tidak dapat disimpulkan. Hal ini merupakan kelemahan dalam pengujian D-W. Oleh karena itu, untuk mendeteksi autokorelasi digunakan pengujian lain yaitu dengan menggunakan uji Breausch and Godfrey Serial Correlation Langrange Multiplier Test. Kriteria uji yang digunakan adalah: ƒ Jika nilai probabilitas pada ObsR-squared taraf nyata yang digunakan maka persamaan tersebut tidak mengandung autokorelasi. ƒ Jika nilai probabilitas pada ObsR-squared taraf nyata tertentu maka persamaan tersebut mengandung autokorelasi. 3. Multikolinearitas Dalam model regresi linier yang terdiri dari banyak variabel bebas terkadang dijumpai adanya multikolinearitas. Multikolinearitas adalah hubungan linear yang kuat antara variabel-variabel bebas dalam persamaan regresi berganda. Dampak adanya multikolinearitas terhadap OLS adalah: a. Standard error dari variabel yang diduga cenderung semakin besar dengan meningkatnya tingkat korelasi antara peningkatan variabel meskipun penaksir OLS dapat diperoleh; b. Besarnya standard error membuat selang keyakinan untuk variabel yang relevan cenderung lebih besar; c. Jika multikolinearitas tinggi maka probabilitas untuk menerima hipotesis yang salah cenderung menjadi besar; d. Kesalahan standard akan semakin besar dan sensitif jika ada perubahan data; e. Pengaruh individual tidak mungkin diisolasi dari variabel yang menjelaskan. Multikolinearitas sering terjadi ketika nilai R 2 tinggi yaitu ketika nilainya antara 0.7 dan 1. Meskipun nilai R 2 sangat tinggi, multikolinearitas cenderung menyimpulkan menerima H , artinya pengaruh variabel bebas tidak signifikan. Untuk mengetahui multikolinearitas dalam suatu model, salah satu caranya adalah dengan menggunakan Correlation Matrix, dimana batas terjadinya korelasi antara sesama variabel bebas adalah tidak lebih dari |0,8|. Semakin besar nilai correlation matrix maka semakin erat hubungan antara variabel-variabel bebas tersebut atau multikolinearitas yang terjadi akan semakin tinggi. Melalui Correlation Matrix ini dapat pula digunakan uji Klein dalam mendeteksi multikolinearitas Gujarati, 1993. Jika nilai korelasi lebih dari |0,8| dan tidak lebih dari nilai R 2 maka multikolinearitas dapat diabaikan.

IV. GAMBARAN UMUM