C. Uji F
Uji F digunakan untuk membuktikan secara statistik bahwa seluruh koefisen regresi juga signifikan dalam menentukan nilai dari variabel tak bebas.
Untuk uji F hipotesis diuji adalah : ...
2 1
= =
= =
=
k
H β
β β
Jika seluruh nilai sebenarnya dari parameter regresi sama dengan nol, maka dapat disimpulkan bahwa tidak terdapat hubungan linier antara variabel tak bebas
dengan variabel-variabel bebas. Untuk mengujinya dapat digunakan F statistik dengan formula sebagai berikut :
k N
R k
R F
− −
− =
2 2
1 1
3.6
Jika nilai F satistik lebih kecil dari nilai t tabel maka hipotesis diterima. Namun jika nilai F statistik lebih besar dari nilai F tabel berdasarkan suatu level of
significance tertentu maka hipotesis ditolak.
D. Multikolinier
Multikolinier adalah situasi adanya korelasi variabel-variabel bebas di antara satu dengan yang lainnya. Variabel-variabel bebas yang bersifat ortogonal
adalah variabel bebas yang nilai korelasi di antara sesamanya sama dengan nol. Jika terdapat korelasi sempurna di antara sesama variabel bebas ini sama dengan
satu, maka konsekuensinya adalah koefisien-koefisien regresi menjadi tidak dapat ditaksir, nilai standar error setiap koefisien menjadi tidak terhingga. Hal-hal utama
yang sering menyebabkan terjadinya multikolinearitas pada model regresi, antara lain :
1. Kesalahan teoritis dalam pembentukan model fungsi regresi yang
dipergunakan. 2.
Terlampau kecilnya jumlah pengamatan yang akan dianalisis dengan model regresi.
Untuk mendeteksi
multikolinier dapat dilihat dengan menghitung koefisien korelasi parsial. Disamping itu untuk melihat variabel eksogen mana
yang saling berkorelasi dilakukan dengan meregresi tiap variabel eksogen dengan sisa variabel eksogen yang lain dan menghitung nilai R
2
yang cocok. Dalam model regresi :
Yi= α
+ α
1
E
i
+ α
2
L
i
+ α
3
I
i
+ α
4
Dk
i
+ ε
1
Diregresikan setiap variabel bebas atas variabel bebas yang lain dan kemudian menghitung R
2
yang bersangkutan yang kita nyatakan dengan simbol R
i
, kemudian kita tentukan nilai F masing-masing regresi tersebut dan dinyatakan
dengan F
i
. Formula hubungan antara F dan R
2
dinyatakan sebagai berikut :
1 1
2
, ,
, 2
, ,
,
+ −
− −
= k
N R
k R
F
i I
i I
i I
I i
Dk I
l E
Dk I
L E
i
3.7
N = jumlah observasi K = jumlah variabel bebas
Jika F
i
lebih besar dari nilai F
i
tabel pada suatu level of significance tertentu, maka dapat diartikan bahwa variabel bebas X
k
tertentu mempunyai variabel bebas yang lain. Jika F
i
lebih kecil dari nilai F tabel pada suatu level of significance tertentu,
maka dapat diartikan bahwa variabel bebas X
k
tertentu tidak mempunyai korelasi dengan variabel bebas lain.
E. Heteroskedastisitas
Suatu fungsi dikatakan baik apabila memenuhi asumsi homoskedastisitas tidak terjadi heteroskedastisitas atau memiliki ragam error yang sama. Gejala
adanya heteroskedastisitas dapat ditunjukkan oleh probability ObsR-squared pada uji White Heteroskedastisicity.
1
≠ =
= =
γ γ
H H
Kriteria uji : Probality ObsR-squared
α, maka tolak H Probability ObsR-squared
. α,maka terima H
Heteroskadastisitas dapat juga dideteksi dengan menggunakan metode grafik yang memetakan hubungan antara variabel tak bebas dengan kuadrat
residual. Jika terdapat pola yang sistematis antara dua variabel tersebut maka dapat dikatakan bahwa persamaan regresi mengandung heteroskedastisitas.
Akibat yang ditimbulkan pada model regresi yang mengandung heteroskedastisitas pada faktor-faktor gangguannya yang diterapkan adalah
sebagai berikut : 1.
Penaksir-penaksir OLS tidak akan bias unbiased Artinya, penaksir-penaksir OLS adalah tidak bias sekalipun dalam kondisi
heteroskedastisitas. Hal ini disebabkan karena tidak menggunakan asumsi homoskedastisitas.
2. Varian yang diperoleh menjadi tidak efisien
Artinya, cenderung membesar sehingga tidak lagi merupakan varian yang terkecil. Kecenderungan semakin membesarnya varian tersebut akan
mengakibatkan uji hipotesis yang dilakukan juga tidak akan memberikan hasil yang baik tidak valid. Pada uji t terhadap koefisien regresi, t hitung diduga
terlalu rendah. Kesimpulan tersebut akan semakin buruk jika sampel pengamatan semakin kecil jumlahnya. Dengan demikian, model diperbaiki
dulu agar pengaruh dari heteroskedastisitasnya hilang.
F. Uji Normalitas