66 dimana:
TWTP = Total WTP Rp
WTP
i
= WTP individu ke-i P = jumlah populasi
n
i
= jumlah sampel ke-i N = jumlah sampel
i = Responden WTP 1,2,..,n 6. Mengevaluasi Penggunaan CVM
Hal ini merupakan penilaian sejauh mana penggunaan CVM telah berhasil. Pada tahap ini memerlukan pendekatan seberapa besar tingkat
keberhasilan dalam pengaplikasian CVM. Isu yang paling penting dalam CVM adalah apakah respon responden atas pertanyaan-pertanyaan teknik
CVM secara akurat menggambarkan preferensi sesungguhnya dari responden yang bersangkutan. Uji yang dapat dilakukan adalah uji keandalan reability
test atas penawaran WTP yang ditunjukkan dengan koefisien determinasi
adjusted R
2
adj dari model OLS Ordinary Least Square WTP.
4.4.5 Pengujian Parameter
Pengujian secara statistic perlu dilakukan untuk memeriksa kebaikan suatu model yang telah dibuat. Uji statistik yang digunakan dalam penelitian ini adalah:
1. Uji Keandalan Uji keragaman digunakan untuk melihat sejauh mana besar
keragaman yang dapat diterangkan oleh variabel bebas terhadap variabel tak bebas. Uji ini juga digunakan untuk melihat seberapa kuat variabel yang
dimasukkan ke dalam model dapat menerangkan model. Dua sifat R
2
adalah
67 merupakan besaran negatif dan batasnya antara nol sampai satu. Suatu R
2
sebesar 1 berarti kecocokan sempurna sedangkan R
2
yang bernilai nol berarti tidak ada hubungan antara variabel tak bebas dengan variabel yang
menjelaskan. Rumus untuk menghitung R
2
adalah: R
2
= =
dimana: JKT = jumlah kuadrat total
JKG = jumlah kuadrat galat 2. Uji Statistik F
Uji F digunakan untuk membuktikan secara statistik bahwa seluruh koefisien regresi juga signifikan dalam menentukan nilai dari variabel tak
bebas. Untuk uji F hipotesis diuji adalah: H
= β = β
1
= … = β
14
= 0 Jika seluruh nilai sebenarnya dari parameter regresi sama dengan nol,
maka dapat disimpulkan bahwa tidak terdapat hubungan linear antara variabel tak bebas dengan variabel-variabel bebas. Untuk mengujinya dapat digunakan
F statistic dengan formula sebagai berikut: F =
Jika nilai F statistik lebih kecil dari nilai t tabel maka hipotesis diterima. Namun, jika nilai F statistic lebih besar dari nilai F tabel
berdasarkan suatu level of significance tertentu maka hipotesis ditolak.
68 3. Uji terhadap Multikolinearitas Multicollinearity
Multikolinear adalah situasi adanya korelasi variabel-variebel bebas di antara satu dengan yang lainnya. Variabel-variabel bebas yang bersifat
orthogonal adalah variabel bebas yang nilai korelasi di antara sesamanya adalah nol. Jika korelasi di antara sesama variabel bebas ini sama dengan
satu, maka konsekuensinya adalah koefisien-koefisien regresi menjadi tidak dapat ditaksir, nilai standard error setiap koefisien menjadi tak terhingga.
Hal-hal utama yang sering menyebabkan terjadinya multikolinearitas pada model regresi, antara lain:
1. Kesalahan teoritis dalam pembentukan model fungsi regresi yang dipergunakan.
2. Terlampau kecilnya jumlah pengamatan yang akan dianalisis dengan model regresi.
Untuk mendeteksi multikolinier dapat dilihat dengan menghitung koefisien korelasi parsial. Di samping itu untuk melihat variabel eksogen
mana yang saling berkorelasi dilakukan dengan meregresi tiap variabel eksogen dengan sisa variabel eksogen yang lain dan menghitung nilai R
2
yang cocok.
Dalam model regresi: Y = β
+ β
1
UMUR
i
+ β
2
PDDK
i
+ β
3
TGG
i
+ β
4
PDPTN
i
+ β
5
PLRN
i
+ β
6
KP
i
– β
7
LTSI
i
+ β
8
JLI
i
+ β
9
FA
i
– β
10
KA
i
+ β
11
BSG
i
– β
12
UDARA
i
– β
13
BRSH
i
– β
14
JLK
i
+ β
15
KRMN
i
+ β
16
KRMNL
i
+ β
17
PREF
i
– β
18
PRSP
i
+ ε
i
69 Disederhanakan menjadi:
Y =
β +
β
1
X
1
– β
2
X
2
+ β
3
X
3
+ β
4
X
4
– β
5
X
5
– β
6
X
6
+ β
7
X
7
+ … + β
18
X
18
+ µ Kita regresikan setiap X
i
atas X yang lain dan kemudian menghitung R
2
yang bersangkutan yang kita nyatakan dengan symbol R
xi
, kemudian kita tentukan nilai F masing-masing regresi tersebut dan dinyatakan dengan F
xi
. Formula hubungan antara F dan R
2
dinyatakan sebagai berikut:
F
X1
= dimana:
N = jumlah observasi K = jumlah variabel bebas
Jika F
xi
lebih besar dari nilai F tabel pada suatu level of signivicance tertentu, maka dapat diartikan bahwa variabel bebas X
k
tertentu mempunyai variabel bebas yang lain. Jika F
xi
lebih kecil dari nilai F tabel pada suatu level of significance
tertentu, maka dapat diartikan bahwa variabel bebas X
k
tertentu tidak mempunyai korelasi dengan variabel bebas lain. 4. Uji Heteroskedastisitas
`Suatu fungsi
dikatakan baik
apabila memenuhi
asumsi homoskedastisitas tidak terjadii heteroskedastisitas atau memiliki ragam
error yang sama. Gejala adanya heteroskedastisitas dapat ditunjukkan dengan uji Barrllet dan Levene dengan asumsi yang digunakan yaitu:
H = heteroskedastisitas
H
1
= homoskedastisitas
70 Kriteria uji:
P-value α, maka tolak H
P-value α, maka terima H
Heteroskedastisitas dapat juga dideteksi dengan menggunakan metode grafik yang memetakan hubungan antara variabel tak bebas dengan kuadrat
residual. Jika terdapat pola yang sistematis antara dua variabel tersebut maka dapat dikatakan bahwa persamaan regresi mengandung heteroskedastisitas.
Akibat yang ditimbulkan pada model regresi yang mengandung heteroskedastisitas pada faktor-faktor gangguannya yang diterapkan adalah
sebagai berikut: 1. Penaksir-penaksir OLS tidak akan bias unbiased
Artinya, penaksir-penaksir OLS adalah tidak bias sekalipun dalam kondisi heteroskedastisitas. Hal ini disebabkan karena tidak
menggunakan asumsi homoskedastisitas. 2. Varian yang diperoleh menjadi tidak efisien
Artinya, cenderung membesar sehingga tidak lagi merupakan varian yang terkecil. Kecenderungan semakin membesarnya varian
tersebut akan mengakibatkan uji hipotesis yang dilakukan juga tidak akan memberikan hasil yang baik tidak valid. Pada uji t terhadap koefisien
regresi, t hitung diduga terlalu rendah. Kesimpulan tersebut akan semakin buruk jika sampel pengamatan semakin kecil jumlahnya. Dengan
demikian, model
diperbaiki dulu
agar pengaruh
dari heteroskedastisitasnya hilang.
71 5. Uji Autokorelasi
Salah satu asumsi dari model regresi linier adalah bahwa tidak ada autokorelasi a
tau korelasi serial antara sisaan ε
t
, atau dengan kata lain sisaan menyebar bebas. Masalah autokorelasi sering terjadi dalam data time series,
meskipun demikian masalah ini dapat juga dalam data cross section. Untuk mendeteksi adanya autokorelasi dapat digunakan metode grafik atau dengan
menggunakan uji Durbin-Watson, yaitu dengan asumsi sebagai berikut: H
: tidak ada autokorelasi H
1
: ada autokorelasi Kriteria keputusan: tolak H
bila nilai Durbin-Watson dd
u
atau 4-d
u
d
u
atau terima H bila d
u
d4-d
u
. 6. Uji kenormalan
Pengujian normalitas residual dapat dilihat dari grafik normal P-P Plot. Apabila setiap pancaran data residual berada di sekitar garis lurus
melintang, maka dikatakan bahwa residual mengikuti fungsi distribusi normal. Selain dengan metode grafik normal P-Plot, untuk memvalidasi data
bahwa residual mengikuti distribusi normal, perlu dilakukan pengujian normalitas dengan statistic uji Kolmogorov-Smirnov, dimana apabila
diperoleh p-value lebih besar dari taraf nyata, maka dapat disimpulkan bahwa nilai residual mengikuti distribusi normal.
72
V. GAMBARAN UMUM PENELITIAN