Metode Evaluasi Model METODOLOGI PENELITIAN

3. Untuk memilih antara Random Effect Model dan Pooled Least Square Model digunakan The Breusch-Pagan LM Test dengan menggunakan hipotesis sebagai berikut: H : Pooled Least Square Model H 1 : Random Effect Model Nilai Breusch-Pagan LM statistik dapat dihitung berdasarkan formula sebagai berikut: 2 2 2 1 ˆ ˆ 1 2                 i t it i t it w w T NT LM ~ 2  3.6 Dimana N adalah jumlah individu, T adalah jumlah periode waktu, dan Wit adalah residual Pooled Least Square Model. The Breusch-Pagan LM Test ini didasarkan pada distribusi Chi square dengan derajat bebas sebesar satu. Jika hasil Breusch-Pagan LM statistik lebih besar dari nilai 2 1, maka Ho ditolak yang berarti Random Effect Model lebih baik daripada Pooled Least Square Model.

3.4 Metode Evaluasi Model

Setelah hasil pengolahan data dengan metode analisis data panel selesai dilakukan, harus dilakukan evaluasi terhadap model estimasi yang dihasilkan. Model estimasi yang dihasilkan melalui metode analisis data panel tersebut harus dievaluasi berdasarkan beberapa kriteria sebagai berikut: 1. Kriteria Ekonometrika Widarjono 2009 menyatakan bahwa model estimasi regresi linear yang ideal dan optimal harus menghasilkan estimator yang memenuhi kriteria Best Linear Unbiased Estimator BLUE yang antara lain sebagai berikut: a. Estimator linear artinya adalah estimator merupakan sebuah fungsi linear atas sebuah variabel dependen yang stokastik. b. Estimator tidak bias artinya adalah nilai ekspektasi sesuai dengan nilai sebenarnya. c. Estimator harus mempunyai varians yang minimum. Estimator yang tidak bias dan memiliki varians minimum disebut estimator yang efisien. Asumsi yang harus dipenuhi untuk memperoleh estimator yang memenuhi kriteria BLUE antara lain sebagai berikut: a. Hubungan antara variabel dependen dengan variabel independen harus bersifat linear dalam parameter. b. Variabel independen merupakan variabel yang bersifat nonstokastik,yaitu memiliki nilai tetap dan dapat dikendalikan untuk berbagai observasi atau sampel yang berulang-ulang. Apabila variabel independennya lebih dari satu maka diasumsikan tidak ada hubungan linear antara satu variabel independen yang satu dengan variabel independen yang lain. c. Nilai harapan expected value atau rata-rata dari variabel error i adalah nol atau dapat dinyatakan dengan E i X i = 0. d. Varian dari variabel error ei adalah sama homoskedastisitas atau dapat dinyatakan dengan Var i X i = 2 . e. Variabel error independen secara statistik dan tidak terdapat serial korelasi antar error dengan variabel independen atau dapat dinyatakan dengan Cov i , j = 0 dan Cov i , X t = 0. f. Error berdistribusi normal atau dapat dinyatakan dengan ~N 0, 2 . Nachrowi dan Usman 2005 menyatakan bahwa beberapa permasalahan yang bisa menyebabkan sebuah estimator tidak dapat memenuhi asumsi kriteria BLUE antara lain sebagai berikut: a. Normalitas Pengujian asumsi normalitas dilakukan untuk melihat apakah error term mengikuti distribusi normal atau tidak. Jika asumsi normalitas ini tidak dipenuhi maka prosedur pengujian dengan menggunakan uji t-statistic menjadi tidak sah. Pengujian asumsi normalitas dapat dilakukan dengan Jarque Bera Test atau dengan melihat plot dari sisaan. Hipotesi dalam pengujian normalitas adalah: H : Residual berdistribusi Normal H 1 : Residual tidak berdistribusi Normal Dasar penolakan H diilakukan dengan membandingkan nilai Jarque Bera dengan taraf nyata sebesar 0,05 dimana jika lebih besar maka artinya H tidak ditolak dan residual berdistribusi Normal. b. Multikolinearitas Istilah multikolinearitas berarti terdapat hubungan linier antara variabel independennya. Winarno 2007 menyatakan bahwa indikasi terjadinya multikolinearitas dapat terlihat melalui: 1. Nilai R-squared yang tinggi tetapi variabel independennya banyak yang tidak signifikan. 2. Nilai perhitungan koefisien korelasi antar variabel independennya. Apabila nilai koefisien korelasinya lebih rendah dari 0,80, maka dapat disimpulkan bahwa tidak terjadi multikolinearitas. 3. Melakukan regresi auxiliary dengan memberlakukan variabel independen sebagai salah satu variabel dependen dan variabel independen lainnya tetap diberlakukan sebagai variabel independen. Untuk mengatasi masalah multikolinearitas antara lain biasanya dilakukan dengan menambah jumlah data atau mengurangi jumlah data observasi, menambah atau mengurangi jumlah variabel independennya yang memiliki hubungan linear dengan variabel lainnya, mengkombinasikan data cross section dan time series, mengganti data, dan mentransformasi variabel. c. Heteroskedastisitas Salah satu asumsi dasar dari metode regresi linear adalah varians tiap unsur error adalah suatu angka konstan yang sama dengan 2. Heteroskedastisitas terjadi ketika varians tiap unsur error tidak konstan. Winarno 2007 menyatakan bahwa heteroskedastisitas dapat menyebabkan: 1. Estimator tidak lagi mempunyai varians yang minimum tidak lagi Best, sehingga hanya memenuhi karakteristik LUE Linear Unbiased Estimator 2. Perhitungan standar error tidak lagi dapat dipercaya kebenarannya karena varians tidak minimum sehingga dapat menghasilkan estimasi regresi yang tidak efisien. 3. Uji hipotesis yang didasarkan pada uji F-Statistic dan t-statistic tidak dapat dipercaya. Uji heteroskedastisitas dapat menggunakan metode GLS Weights Cross- section weight yang tersedia dalam program EViews 6.0 di mana jika terdapat masalah heteroskedastisitas, nilai Sum squared resid Weighted Statistic akan lebih kecil dibandingkan nilai Sum squared resid Unweighted Statistic. Jika model mengalami masalah ini, dengan menggunakan metode GLS Weights Cross-section weight tersebut masalah sudah teratasi. d. Autokorelasi Winarno 2007 menyatakan bahwa autokorelasi adalah hubungan antara residual atau observasi dengan residual observasi lainnya, sedangkan Gujarati 2004 mendefinisikan autokorelasi sebagai korelasi antara anggota serangkaian observasi yang diurutkan menurut waktu seperti dalam data time series atau diurutkan menurut ruang seperti dalam data cross section. Suatu model dikatakan memiliki autokorelasi jika error dari periode waktu time series yang berbeda saling berkorelasi. Masalah autokorelasi ini akan menyebabkan model menjadi tidak efisien meskipun masih tidak bias dan konsisten. Autokorelasi menyebabkan estimasi standar error dan varian koefisien regresi yang diperoleh akan underestimate, sehingga R 2 akan besar tetapi uji t- Statistic dan uji F-Statistic menjadi tidak valid. Autokorelasi yang kuat juga dapat menyebabkan dua variabel yang tidak berhubungan menjadi berhubungan. Bila OLS digunakan, maka akan terlihat koefisien signifikan dan R 2 yang besar atau juga disebut sebagai regresi lancung atau palsu. Untuk masalah autokorelasi pengujiannya dilakukan dengan melihat Durbin-Watson stat yang nilainya telah disediakan dalam program EViews 6.0 dibandingkan dengan DW-tabel. Sebuah model dapat dikatakan terbebas dari autokorelasi jika nilai Durbin-Watson stat-nya terletak di area nonautokorelasi. Penentuan area tersebut dibantu dengan nilai tabel D L dan D U , jumlah observasi N dan jumlah variabel independen K. Dengan menggunakan hipotesis pengujian sebagai berikut: H : Tidak terdapat autokorelasi H 1 : Terdapat autokorelasi maka aturan pengujiannya adalah sebagai berikut: 0 d D L : tolak H , ada autokorelasi positif D L  d  D U : daerah ragu-ragu, tidak ada keputusan D U d 4 – D u : terima H , tidak ada autokorelasi 4 – D U  d  4 – D L : daerah ragu-ragu, tidak ada keputusan 4 – D L d 4 : tolak H , ada autokorelasi negatif 2. Kriteria Statistik Evaluasi model estimasi berdasarkan kriteria statistik dilakukan dengan melakukan beberapa pengujian yang antara lain sebagai berikut: a. Koefisien Determinasi R 2 Widarjono 2009 menyatakan bahwa nilai koefisien determinasi R 2 mengukur tingkat seberapa besar variabel-variabel independen yang digunakan dalam penelitian dapat menjelaskan variabel dependen. Nilai tersebut menunjukkan seberapa dekat garis regresi yang kita estimasi dengan data yang sesungguhnya. Nilai R 2 terletak antara nol hingga satu dimana semakin mendekati satu maka model semakin baik. b. Uji F-Statistic Uji F-Statistic digunakan untuk mengetahui apakah variabel-variabel independen yang digunakan didalam penelitian secara bersama-sama signifikan memengaruhi variabel dependen. Nilai F-Statistic yang besar lebih baik dibandingkan dengan nilai F-Statistic yang rendah. Nilai ProbF-Statistic merupakan tingkat signifikansi marginal dari F-Statistic. Dengan menggunakan hipotesis pengujian sebagai berikut: H : 1 = 2 =… = k = 0 H 1 : minimal ada salah satu j yang tidak sama dengan nol Tolak H jika F-Statistic F k – 1, NT – N – K atau ProbF-Statistic . Jika Ho ditolak, maka artinya dengan tingkat keyakinan1- kita dapat menyimpulkan bahwa variabel independen yang digunakan di dalam model secara bersama-sama signifikan memengaruhi variabel dependen. c. Uji t-Statistic Uji t-Statistic digunakan untuk mengetahui apakah variabel-variabel independen secara parsial berpengaruh signifikan terhadap variabel dependen. Dengan menggunakan hipotesis pengujian sebagai berikut: H : j = 0 H 1 : j ≠ 0 Tolak H jika t-Statistic t β NT – K – 1 atau t-Statistic . Jika Ho ditolak, maka artinya dengan tingkat keyakinan 1 – kita dapat menyimpulkan bahwa variabel independen ke-i secara parsial signifikan memengaruhi variabel dependen. 3. Kriteria Ekonomi Evaluasi model estimasi berdasarkan kriteria ekonomi dilakukan dengan membandingkan kesesuaian tanda dan nilai estimator dengan teori dan logika.

3.5 Spesifikasi model