Uji Kriteria Ekonometrika Metode Estimasi

variabel bebas eksogen yang tidak mampu menambah daya prediksi suatu model. Nilai Adjusted R-squared tidak akan pernah melebihi nilai R-squared bahkan dapat turun jika ditambahkan variabel bebas eksogen yang tidak perlu. Bahkan untuk model yang memiliki kecocokan rendah goodness of fit, Adjusted R-squared dapat memiliki nilai yang negatif. R2 = dimana : σ 2 = Varians residual S y 2 = Varians sampel dari Y

3.3.2. Uji Kriteria Ekonometrika

Dalam menggunakan metode OLS dapat ditemukan beberapa permasalahan yang dihadapi, yaitu masalah autokorelasi, heteroskedastisitas, dan multikolinieritas. 1. Uji Autokorelasi Didalam berbagai penelitian seringkali terdeteksi adanya hubungan serius antara gangguan estimasi satu observasi dengan gangguan estimasi observasi yang lain. Nisbah antara observasi inilah yang disebut sebagai masalah autokorelasi. Adanya autokorelasi akan menyebabkan terjadinya dugaan parameter tidak bias, nilai galat baku ter-autokorelasi sehingga ramalan menjadi tidak efisien, ragam galat berbias, serta terjadi pendugaan yang kurang pada ragam galat standar σ 2 S y 2 1 3.11 error underestimated sehingga Sb underestimated. Oleh karena itu, t overestimate cenderung lebih besar dari yang sebenarnya. Gejala autokorelasi dapat dideteksi dengan uji Breusch Godfrey Serrial Correlation Langrange Multiplier Test yang terdapat dalam E-views4 dengan hipotesis sebagai berikut : H : ρ = 0 tidak terdapat serial korelasi H 1 : ρ ≠ 0 terdapat serial korelasi Kriteria uji yang digunakan untuk melihat adanya autokorelasi adalah sebagai berikut : a. Apabila nilai probability ObsR-squared-nya taraf nyata yang digunakan maka hipotesis H diterima yang berarti model persamaan yang digunakan tidak mengalami masalah autokorelasi, b. Apabila nilai probability ObsR-squared-nya taraf nyata yang digunakan maka hipotesis H ditolak yang berarti model persamaan yang digunakan mengalami masalah autokorelasi. Solusi dari masalah autokorelasi adalah sebagai berikut: a. Dihilangkan variabel yang sebenarnya berpengaruh terhadap variabel tak bebas, b. Apabila terjadi kesalahan dalam hal spesifikasi model, hal ini dapat diatasi dengan mentransformasi model, misalnya dari model linear menjadi model non-linear atau sebaliknya. 2. Uji Heteroskedastisitas Suatu model dikatakan baik apabila memenuhi asumsi homoskedastisitas tidak terjadi heteroskedastisitas atau memiliki ragam error yang sama. Heteroskedastisitas adalah suatu penyimpangan asumsi OLS dalam bentuk varians gangguan estimasi yang dihasilkan oleh estimasi OLS yang tidak bernilai konstan. Heteroskedastisitas tidak merusak sifat ketidakbiasan dan konsistensi dari penaksir OLS tetapi penaksir yang dihasilkan tidak lagi mempunyai varians minimum efisien. Menurut Gujarati 1993, jika terjadi heteroskedastisitas maka akan berakibat sebagai berikut : a. Estimasi dengan menggunakan OLS tidak akan memiliki varians yang minimum atau estimator tidak efisien, b. Prediksi nilai Y untuk X tertentu dengan estimator dari data yang sebenarnya akan mempunyai varians yang tinggi, sehingga prediksi menjadi tidak efisien, c. Tidak dapat diterapkannya uji nyata koefisien atau selang kepercayaan dengan menggunakan formula yang berkaitan dengan nilai varians. Untuk memeriksa keberadaan heteroskedastisitas salah satunya dapat ditunjukkan dengan White-Heteroskedasticity Test, dimana tidak perlu asumsi normalitas dan relatif mudah. Hipotesis : H : γ = 0 homoskedastisitas H 1 : γ ≠ 0 heteroskedastisitas Kriteria uji yang digunakan untuk melihat adanya heteroskedastisitas adalah sebagai berikut : a. Apabila nilai probability ObsR-squared-nya taraf nyata yang digunakan maka hipotesis H diterima yang berarti tidak terdapat gejala heteroskedastisitas pada model, b. Apabila nilai probability ObsR-squared-nya taraf nyata yang digunakan maka hipotesis H ditolak yang berarti terdapat gejala heteroskedastisitas pada model. Solusi dari masalah ini adalah mencari transformasi model asal sehingga model yang baru akan memiliki error-term dengan varians yang konstan. 3. Uji Multikolinieritas Istilah multikolinieritas mula-mula ditemukan oleh Ragnar Frisch. Multikolinieritas adalah adanya hubungan linear yang sempurna atau pasti diantara beberapa atau semua variabel yang menjelaskan dari model regresi. Konsekuensi dari terjadinya multikolinieritas adalah koefisien regresi menjadi tidak dapat ditaksir dan nilai standard error setiap koefisien regresi menjadi tidak terhingga. Gujarati 1993 mengemukakan tanda-tanda adanya multikolinieritas adalah : a. Tanda tidak sesuai dengan yang diharapkan, b. R-squared-nya tinggi tetapi uji individu tidak banyak bahkan tidak ada yang nyata, c. Korelasi sederhana antara variabel individu tinggi r ij tinggi, d. R 2 r ij menunjukkan adanya masalah multikolinieritas. Untuk memperbaiki dari masalah multikolinieritas menurut Gujarati 1993 adalah sebagai berikut : a. Menggunakan extraneous atau informasi sebelumnya, b. Mengkombinasikan data cross-sectional dan data deretan waktu, c. Meninggalkan variabel yang sangat berkorelasi, d. Mentransformasikan data, e. Mendapatkan tambahan data baru.

3.2.3. Regresi Komponen Utama Principal Component Analysis