Semakin mendekati satu nilai R
2
maka semakin baik model yang dibuat. Jika nilai R
2
sama dengan nol R
2
= 0, hal ini berarti variabel dependen tidak dapat diterangkan oleh variabel independennya, atau dengan kata lain tidak ada
hubungan antara variabel dependen dan variabel independen. Jika nilai R
2
sama dengan satu R
2
= 1, maka variabel dependen dapat dijelaskan oleh variabel independennya secara sempurna.
Namun nilai R
2
yang tinggi tidak selalu membuktikan bahwa kualitas dari suatu model sudah baik. Hal ini umumnya terjadi pada analisis time series,
dimana dalam setiap variabelnya cenderung mengalami kenaikan seiring berjalannya waktu, sehingga akan menghasilkan nilai R
2
yang cukup tinggi. Tetapi dalam analisis cross section nilai R
2
cenderung rendah, karena tidak terlalu terpengaruh oleh kenaikan variabel setiap tahunnya. Secara umum R
2
dapat dihitung menggunakan rumus:
R
2
= RSSTSS ............................................. 3.6 Dimana :
RSS = Jumlah kuadrat residual Ressidual Sum Square TSS = Jumlah kuadrat total Total Sum Square
3.3.3.2. Pengujian Asumsi Model
Pengujian model dilakukan dengan kriteria statistik dan ekonometrika. Pengujian kriteria statistik dilakukan dengan menggunakan uji-t dan uji-F. Uji-t
dapat dilihat dari nilai probabilitas t-statistiknya. Sedangkan uji-F dapat dilihat dari nilai F-statistiknya. Jika nilai kedua probabilitas tersebut lebih kecil dari taraf
nyatanya, maka peubah bebas berpengaruh signifikan terhadap variabel terikatnya.
Suatu variabel yang digunakan dalam sebuah model memerlukan adanya pengujian asumsi yang terdapat pada metode OLS. Hal ini dimaksudkan agar
estimasi variabel penduga yang digunakan bersifat BLUE Best, Linear, Unbiased, Estimation, sehingga didapatkan kebenaran suatu model dalam
penelitian. Adapun uji asumsi yang dilakukan terdiri atas uji multikolinearitas, uji heteroskedastisitas, dan uji autokorelasi.
1. Uji Normalitas Firdaus 2004 menyebutkan bahwa uji normalitas merupakan salah satu
asumsi statistik dimana error term terdistribusi secara normal. Model regresi seperti itu disebut model regresi linear normal klasik. Regresi normal klasik
mengasumsikan bahwa setiap i didistribusikan secara normal dengan: Rata-rata : E
i
= 0 .............................................................................. 3.7 Varians : E
i
= ............................................................................... 3.8
Cov
i
,
j
: E
i
,
j
= 0 i ≠j ............................................................... 3.9
Asumsi ini secara ringkas dapat dinyatakan:
i
~ N 0, ........................................................................................ 3.10
Di mana ~ berarti “didistribusikan sebagai” dan N berarti “distribusi normal”. Angka dalam tanda kurung menunjukkan rata-rata
i
= 0 dan varians
i
= . Perlu
ditegaskan bahwa dua variabel yang didistribusikan secara normal dengan
kovarian atau korelasi nol berarti dua variabel tersebut independen. Jadi, asumsi itu berarti bahwa
i
dan
ij
bukan hanya tidak berkorelasi, tetapi juga independen. Pada
software Eviews 6, uji normalitas dilakukan dengan uji Jarque-Bera. Apabila nilai probabilitas Jarque-Bera lebih besar dari taraf nyata
α, maka hasil estimasi tersebut memenuhi asumsi kenormalan atau error term telah terdistribusi
dengan normal. Uji normalitas juga bisa dilakukan dengan melihat pola sisaan. Apabila sisaan berpola linear, yaitu berbentuk lonceng terbalik maka bisa
dikatakan sisaan dalam model dianggap sudah terdistribusi dengan normal. 2. Uji Multikolinearitas
Multikolinearitas merupakan hubungan linear yang kuat antarvariabel independen dalam analisis regresi berganda. Ciri-ciri terjadinya multikolinearitas
adalah sebagai berikut : a. Nilai R
2
tinggi, tetapi variabel independen banyak yang tidak signifikan. b. Tanda koefisien banyak yang tidak sesuai dengan harapan.
c. Matriks korelasi antarvariabel tinggi r
ij
│0,8│. d. Nilai R
2
lebih kecil dari nilai r
ij
. Multikolinearitas menyebabkan koefisien kuadrat terkecil tidak dapat
ditentukan, serta varians dan kovarians dari koefisien yang hampir sempurna menyebabkan persamaan yang dibentuk secara statistik mempunyai standar error
yang besar dan menyebabkan selang kepercayaan menjadi lebih besar. Hal ini mengakibatkan nilai estimasi koefisiennya menjadi tidak tepat.
3. Uji Heteroskedastisitas Heteroskedastisitas
adalah varians
kesalahan tidak sama untuk setiap periode, padahal salah satu syarat model yang baik adalah varians kesalahannya
sama. Dampak dari adanya heteroskedastisitas adalah dugaan parameter koefisien regresi dengan metode OLS tidak bias, tetapi masih konsisten, standar errornya
bias ke bawah, dan penduga OLS tidek efisien lagi Juanda 2009. Heteroskedastisitas dapat muncul karena beberapa sebab, diantaranya :
a. Sifat variabel yang diikutsertakan ke dalam model. b. Sifat data yang digunakan dalam analisis, yaitu data cross section lebih sering
memunculkan masalah heteroskedastisitas dibandingkan data time series. Pada
Program Eviews 6, untuk mengetahui ada tidaknya
heteroskedastisitas dalam suatu model dapat digunakan uji Breusch Pagan Godfrey. Jika nilai probabilitas obsR-squared lebih besar dari taraf nyata nilai
probabilitas obsR-squared α berarti tidak ada heteroskedastisitas. Namun jika
nilai probabilitas obsR-squared lebih kecil atau sama dengan dari taraf nyata nilai probabilitas obsR-squared
≤ α berarti ada heteroskedastisitas. 4. Uji Autokorelasi
Autokorelasi adalah terjadinya hubungan antara anggota-anggota dari serangkaian pengamatan. Autokorelasi terdeteksi ketika terjadi hubungan antara
galat estimasi suatu observasi dengan galat estimasi observasi lainnya. Masalah autokorelasi umumnya terjadi pada data time series, namun tidak jarang pula
terjadi pada data cross section. Juanda 2009 menyebutkan autokorelasi pada data cross section dengan obyek pengamatan kecamatan biasa disebut
autokorelasi spasial. Hal ini terjadi saat kecamatan yang menjadi sampel saling berdekatan dan memiliki karakteristik yang mirip. Dampak dari adanya
autokorelasi yaitu dugaan variabel dari suatu model menjadi tidak bias, masih konsisten, mempunyai standar error yang bias ke bawah atau lebih kecil dari nilai
sebenarnya, dan tidak efisien. Semua hal tersebut membuat hipotesis menjadi tidak valid.
Penentuan ada tidaknya autokorelasi dapat ditentukan dengan dua cara yaitu uji Durbin-Watson DW dan uji Breusch-Godfrey. Winarno 2002
menyebutkan dalam mendeteksi autokorelasi dapat menggunakan nilai d yang menggambarkan nilai DW, dimana pengambilan keputusannya adalah :
Tabel 3.1 Pengambilan Keputusan pada Uji Durbin-Watson Tolak H
berarti ada autokorelasi
positif Tidak dapat
diputuskan Tidak tolak H
berarti tidak ada
autokorelasi Tidak dapat
diputuskan Tolak H
berarti ada autokorelasi
negative d
L
d
u
4 - d
u
4 - d
L
4
Sumber : Gujarati, 2004
Namun Uji DW memiliki kelemahan yaitu hanya berlaku pada variabel independen yang bersifat stokastik random dan tidak dapat digunakan pada
model rata-rata bergerak moving average. Sehingga untuk mengatasi permasalahan ini dapat digunakan uji Breusch-Godfrey.
Uji autokorelasi Breusch-Godfrey dapat dilakukan apabila menggunakan program eviews saat mengolah data. Uji autokorelasi ini dalam eviews dikenal
dengan nama Breusch-Godfrey Serial Correlation LM. Jika nilai probabilitas obsR-squared lebih besar dari taraf nyata nilai probabilitas obsR-squared
α
berarti tidak ada autokorelasi. Namun jika nilai probabilitas obsR-squared lebih kecil atau sama dengan dari taraf nyata nilai probabilitas obsR-squared
≤ α berarti terdapat autokorelasi.
IV. KONDISI EKONOMI KABUPATENKOTA HASIL PEMEKARAN