3.7.1 Uji Normalitas
Uji ini dilakukan memasatikan µ error term tersebar normal. Jika µ tersebut normal maka koefisien OLS β OLS juga tersebar normal dengan
demikian Y juga tersebar normal, hal ini disebabkan adanya hubungan linier antara µ, β, dan Y. Untuk menguji sebaran µ dapat digunakan uji JB Jarque
Berra. Error term µ disebut normal jika nilai JB lebih rendah atau sama dengan nilai kritis tabel Chi-square derajat bebas, alpha.
Hipotesis yang dipakai adalah Ho diterima dan Ha ditolak jika nilai JB lebih besar dari tabel Chi-square, berarti sebaran error µ dan Y tidak
normal dan Ho ditolak sedangkan Ha diterima jika nilai JB lebih kecil dari nilai tabel Chi-square berarti sebaran error term µ dan Y normal.
3.7.2 Uji Linieritas
Uji linieritas sangat penting karena uji ini sekaligus dapat melihat apakah spesifikasi model yang kita gunakan sudah benar atau tidak. Dengan
menggunakan uji ini kita dapat mengetahui bentuk model empiris dan menguji variabel yang relevan untuk dimasukkan ke dalam model empiris.
Dengan kata lain, dengan menggunakan uji linieritas, spesification error atau miss-specification error. Salah satu uji yang digunakan untuk menguji
linieritas adalah uji Ramsey atau Ramsey RESET Test Pratomo, Wahyu Ario dan Paidi Hidayat, 2007.
3.7.3 Multikolinieritas
Multikolinieritas adalah suatu keadaan dimana satu atau lebih variabel independen dapat dinyatakan sebagai kombinasi linier dari variabel
independen lainnya. Adanya multikolinieritas ditandai dengan:
• Standard error tidak terhingga
• Tidak ada t-
statistik yang signifikan pada α=5, α=10, α=1 •
Terjadi perubahan tanda atau tidak seusai dengan teori •
R
2
sangat tinggi. Pengujian yang lain, yang dapat digunakan untuk melihat multikolinierity
antar variabel adalah dengan menggunakan uji parsial Pratomo, Wahyu Ario dan Paidi Hidayat, 2007:90.
3.7.4 Heterokedastisitas
Heterokedastisitas merupakan salah satu asumsi OLS jika varian residualnya tidak sama. Untuk mendeteksi ada tidaknya heterokedastisitas
dilakukan dengan white test yaitu dengan cara meregres logaritma residual kuadrat terhadap semua variabel penjelas.
Pada white test terhadap beberapa tahap, antara lain : -
Membuat regresi persamaan dan mendapatkan residualnya. -
Uji dengan chi-square tabel χ
2
χ
2
= n R
2
Dimana : n = jumlah observasi R
2
= koefisien determinasi Keputusan ada tidaknya heterokedastisitas ditemukan jika :
• χ
2
hitung χ
2
tabel, maka ada heterokedastisitas. •
χ
2
hitung χ
2
tabel, tidak ada heterokedastisitas. Ini merupakan pelanggaran salah satu asumsi klasik tentang model regresi
linier berdasarkan metode kuadrat terkesil biasa. Heterokedastisitas pada umumnya lebih banyak ditemui pada data cross section data yaitu data yang
menggambarkan keadaan pada suatu waktu tertentu misalnya data hasil suatu survei. Keberadaan heterokedastisitas akan dapat menyebabkan kesalahan dalam
penaksiran sehingga koefisien regresi menjadi tidak efisien dan dapat menyesatkan Nachrowi, Nachrowi Djalal dan Hardius Usman, 2006:109.
Menguji Heterokedastisitas
Untuk menguji keberadaan heterokedastisitas dilakukan dengan cara uji formal yaitu Uji White white’s general Heterokedastisitas Test.
Uji White memulai pengujiannya dengan membentuk model : Yi = β
+ β
1
X
1
+ β
2
X
2
+ β
3
X
3
+ µ
i
Kemudian persamaan diatas. Dimodifikasi dengan membentuk regresi bantuan auxiliary regression sehingga model menjadi :
µi2 = α + α
1
X
1
+ α
2
X
2
+ α
3
X
3
+ α
4
X
1 2
+ α
5
X
2 2
+ α
6
X
3 2
+ α
7
X
1
X
2
X
3
+ υi
Pedoman dari penggunaan uji white ini adalah tidak terdapat masalah heterokedastisitas dalam hasil estimasi, jika nilai R
2
hasil regresi dilakukan dengan jumlah data atau n.R
2
= χ
2
hitung lebih kecil dibandingkan χ
2
tabel. Sementara, akan terdapat masalah heterokedastisitas apabila hasil estimasi
menunjukkan bahwa χ
2
hitung lebih besar dibandingkan χ
2
tabel Pratomo dan Hidayat, 2007:98.
Cara mengobati masalah heteroskedastisitas jika varians diketahui : Pada hakekatnya untuk mengatasi heteroskedastisiti kita melakukan
transformasi data. Gujarati 1995: 383 menunjukkan 4 cara untuk mengatasi heteroskedastisitas, yaitu :
1. Lakukan transformasi logaritma normal, semua data dilogaritma normalkan
model menjadi sebagai berikut,
LN Y = Ln a+ b
1
Ln X
1
+ b
2
Ln X
2
+ e Dengan mentransformasi data kebentuk logaritma normal, maka error akan
mengecil dan akibatnya heteroskedastisitas akan berkurang
2. Bagilah semua data dengan nilai prediksi Y
Yˆ
Y Y
ˆ
= a
Yˆ 1
+ b1 Y
ˆ e
ˆ 2
ˆ
2 1
+ +
Y X
b Y
X
Model ini disebut WLS Weighted Least Squares. Dalam model ini terdapat variabel baru yaitu 1 Yˆ . Buatlah data baru dengan membagi angka 1 dengan
Yˆ
. 3.
Membagi semua variabel dengan variabel lain.
Z e
Z X
b Z
X b
Z a
Z Y
+ +
+ =
2 2
1 1
1
Jika variabel Z tidak tersedia terpaksa kita membagi dengan salah satu variabel penjelas X
1
atau X
2
model menjadi,
1 1
2 2
1 1
1 1
1
1 X
e X
X b
X X
b X
a X
Y +
+ +
=
akhirnya model menjadi:
v X
X b
X A
X Y
+ +
=
1 2
2 1
2 1
Model ini juga dilakukan tanpa intersep, dan R
2
yang diperoleh juga merupakan Raw R
2
.
4. Transformasi dengan membagi semua variabel dengan akar X
1
.
1 1
2 2
1 1
1 1
1
1 X
e X
X b
X X
b X
a X
Y +
+ +
=
Dalam model ini juga dilakukan tanpa intersep, dan R
2
yang diperoleh juga merupakan Raw R
2
. Transformasi-transformasi di atas diharapkan e menjadi konstan sepanjang observasi.
3.8 Defenisi Operasioanal