B = Bahan baku rupiah
E = Energi rupiah
TFP = Total Factor Productivity persen
a, b, c, d, e = Besaran yang akan di duga
Ln = Logaritma natural
3.4. Pengujian Model
Model ekonometrika yang baik harus memenuhi tiga kriteria yaitu kriteria ekonometrika, kriteria statistik, dan kriteria ekonomi. Berdasarkan kriteria
ekonometrika, suatu model yang baik harus bebas dari gejala heteroskedastisitas, autokorelasi, dan multikolinearitas. Kesesuaian model dengan kriteria statistik dilihat
dari hasil uji secara serempak uji-F, secara parsial uji-t, serta koefisien determinasi R
2
. Menurut kriteria ekonomi, tanda dan besarnya parameter variabel-variabel independent dalam model harus sesuai dengan hipotesis, kecuali kondisi-kondisi
tertentu yang dapat dijelaskan Gujarati, 1995.
3.4.1. Kriteria Uji Ekonometrika
1. Uji Heteroskedastisitas
Uji Heteroskedastisitas digunakan untuk mengetahui apakah varians ragam dari setiap gangguan error adalah sama atau konstan. Jika variannya berbeda-beda
atau tidak konstan menunjukkan bahwa model bersifat heteroskedastisitas. Dampak adanya heteroskedastisitas adalah tidak efisiennya proses estimasi, sementara hasil
estimasinya sendiri tetap konsisten dan tidak bias. Adanya masalah heteroskedastisitas akan mengakibatkan hasil uji-t dan uji-F dapat menjadi tidak berguna.
Gejala heteroskedastisitas dapat dideteksi menggunakan metode grafik atau dengan menggunakan Uji Park, Uji Glejser, Uji Breusch-Pagan, Uji Goldfeld-Quandt
dan White test. Pada penelitian ini cara mendeteksi heteroskedastisitas dengan cara uji White Heteroskedasticity. Cara mengatasi jika terjadi heteroskedastisitas dengan cara
jika pendugaan parameter jika ragam sisaan diketahui dengan menggunakan metode Kuadrat Terkecil Terboboti WLS, weghted least squares yang merupakan kasus
khusus dari teknik ekonometrika yang lebih umum, yang disebut GLS generalized least squares.
2. Uji Autokorelasi
Autokorelasi merupakan gejala adanya korelasi antara serangkaian observasi yang diurutkan menurut deret waktu atau time series Gujarati, 1978. Adanya gejala
autokorelasi di dalam suatu persamaan akan menyebabkan persamaan tersebut memiliki selang kepercayaan yang semakin lebar dan pengujian menjadi kurang akurat.
Akibatnya, varian residual yang diperoleh akan lebih rendah daripada seharusnya sehingga mengakibatkan R
2
menjadi lebih tinggi, hasil uji-t dan uji-F menjadi tidak sah dan penaksir regresi akan menjadi sensitif terhadap fluktuasi pengambilan contoh.
Autokorelasi dapat dideteksi menggunakan metode grafik atau dengan menggunakan uji Durbin-Watson DW. Dalam penelitian ini cara mendeteksi dengan cara uji Durbin-
Watson. Uji DW tidak dapat digunakan jika model regresi tidak berisi komponen konstanta. Nilai statistik DW berada pada kisaran nilai nol sampai empat, dan jika nilai
mendekati dua maka menunjukkan tidak ada autokorelasi. 3.
Uji Multikolinearitas Multikolinearitas adalah terjadinya dua atau lebih peubah atau kombinasi
peubah bebas berkorelasi tinggi antara peubah yang satu dengan yang lainnya.
Multikolinearitas menyebabkan koefisien-koefisien regresi dugaan memiliki ragam yang sangat besar, implikasi statistik t yang didefinisikan sebagai rasio antara koefisien
regresi dan simpangan bakunya menjadi lebih kecil yang berakibat pada pengujian koefisien akan cenderung untuk menerima H
sehingga koefisien-koefisien regresi tidak nyata, sehingga persamaan regresi yang dihasilkan menjadi misleading.
Salah satu cara untuk mendeteksi adanya multikolinearitas di dalam suatu model adalah dengan menggunakan matriks korelasi untuk melihat korelasi di antara peubah
bebas. Cara lainnya adalah dengan faktor inflasi ragam Variance Inflation Factor atau VIF, yaitu pengukuran multikolinearitas untuk peubah bebas ke-i. Nilai VIF akan
semakin besar jika terdapat korelasi yang semakin besar diantara peubah-peubah bebas. Pada penelitian ini cara mendeteksinya dengan melihat nilai faktor inflasi ragam atau
VIF, jika nilai VIF lebih besar dari sepuluh bisa digunakan sebagai petunjuk adanya multikolinearitas.
Mengatasi multikolinearitas
ada beberapa
cara, diantaranya
adalah memanfaatkan informasi sebelumnya, mengeluarkan peubah dengan kolinearitas tinggi,
melakukan transformasi terhadap peubah-peubah dalam model dengan bentuk pembedaan pertama untuk data deret waktu, menggunakan regresi komponen utama,
menggabungkan data cross section dengan data time series, cek kembali asumsi waktu membuat model, dan penambahan data baru.
Analisis komponen utama pada dasarnya mentransformasi peubah-peubah bebas yang berkorelasi menjadi peubah-peubah baru yang orthogonal dan tidak berkorelasi.
Analisis ini bertujuan untuk menyederhanakan peubah-peubah yang diamati dengan cara mereduksi dimensinya. Hal ini dilakukan dengan menghilangkan korelasi di antara
peubah melalui transformasi peubah asal ke peubah baru komponen utama yang tidak
berkorelasi. Adapun tahapan-tahapan yang dilakukan dalam analisis regresi komponen utama adalah membakukan peubah bebas asal yaitu X menjadi Z, mencari akar ciri dan
vektor ciri dari matriks R, menentukan persamaan komponen utama dari vektor ciri, meregresikan peubah respon Y terhadap skor komponen utama W dan transformasi
balik.
3.4.2. Kriteria Uji Statistik