∑ ∑
̅ ∑
∑ ̅ ∑
̅ ̅
̂ ∑ ̂ ∑
̂ ∑ ̂
̅ Dalam notasi matriks
dapat ditulis menjadi ̂
̅ ̅
F. Asumsi-asumsi dalam Regresi
1. Multikolinearitas
Istilah multikolinearitas mula-mula ditemukan oleh Ragnar Frisch. Multikolinearitas berarti adanya hubungan linear yang
sempurna atau pasti, diantara beberapa atau semua variabel yang menjelaskan dari model regresi. Untuk regresi k-variabel, meliputi
variabel yang menjelaskan dengan
=1 untuk semua pengamatan untuk memungkinkan adanya unsur intersep, suatu
hubungan linear yang pasti dikatakan ada apabila kondisi berikut dipenuhi:
2.33 Dengan
adalah konstanta sedemikian rupa sehingga tidak semuanya secara simultan sama dengan nol.
Tetapi, untuk saat ini istilah multikolinearitas digunakan dalam pengertian yang lebih luas untuk memasukkan kasus multikolinearitas
sempurna, seperti yang ditunjukkan oleh persamaan 2.33 maupun kasus di mana variabel X berkolerasi tetapi tidak secara sempurna,
sebagai berikut 2.34
dengan adalah kesalahan unsur stokastik.
Perbedaan multikolinearitas sempurna dan kurang sempurna bisa dilihat dalam contoh berikut, asumsikan bahwa
, maka persamaan 2.33 dapat ditulis menjadi
2.35 yang menunjukan bagaimana
berhubungan linear dengan variabel lain atau bagaimana
dapat diperoleh dari kombinasi linear variabel yang lain. Dalam keadaan ini, keefisien korelasi antara variabel
dan kombinasi linear di sisi kanan dari persamaan 2.35 akan menjadi sama dengan satu.
Serupa dengan persamaan 2.35 , jika , maka
persamaan 2.33 dapat ditulis menjadi 2.36
yang menunjukan bahwa tidak merupakan kombinasi linear yang
pasti dari lainnya karena juga ditentukan oleh unsur kesalahan
stokastik .
Sebagai contoh, perhatikan data hipotetis berikut ini:
10 50
52 15
75 75
18 90
97 24
120 129
30 150
152 Jelas bahwa
. Ini berarti terdapat kolinearitas sempurna antara
dan karena koefisien
. Variabel diciptakan dari
dengan hanya menambahkan bilangan random 2, 0, 7, 9, 2. Sekarang tidak ada lagi multikolinearitas sempurna antara
dan .
Model regresi mengasumsikan tidak adanya multikolinearitas diantara variabel X, karena jika multikolinearitas dalam arti persamaan
2.33, koefisien regresi variabel persamaan 2.34 tidak tertentu dan kesalahannya tidak terhingga, dan jika multikolinearitas tidak
sempurna seperti dalam persamaan 2.34 , koefisien regresi meskipun dapat ditentukan memiliki kesalahan standar yang besar dibandingkan
dengan koefisien itu sendiri, yang berarti koefisien tidak dapat diduga dengan ketepatan yang tinggi.
Ada beberapa
metode untuk
mendeteksi adanya
multikolinearitas. Diantaranya:
1. Kolinearitas seringkali diduga ketika
tinggi dan ketika korelasi derajat nol juga tinggi, tetapi tidak satu pun atau sangat
sedikit koefisien regresi parsial yang secara individual penting secara statistik atas dasar pengujian t yang konvesional. Jika
tinggi, ini akan berarti bahwa uji F dari prosedur analisis varians dalam sebagian kasus akan menolak hipotesis nol
bahwa nilai koefisien kemiringan parsial secara simultan adalah nol, meskipun uji t sebaliknya.
2. Korelasi derajat nol yang tinggi merupakan kondisi yang cukup
tetapi tidak perlu adanya kolinearitas karena hal ini dapat terjadi meskipun melalui korelasi derajat nol atau sederhana
relatif rendah. 3.
Menghitung Variance Inflation Factor VIF pada model regresi. VIF menunjukan bagaimana varian dari penduga
meningkat karena kehadiran multikolinearitas. Berikut langkah-langkahnya:
a.
Lakukan regresi dengan
yang lain dan hitunglah koefisien determinasi
.
b.
Hitung VIF ̂
c.
Bila VIF 10, maka ada multikolinearitas.
Salah satu cara untuk menanggulangi adanya multikolinearitas adalah dengan menghilangkan salah satu variabel yang berkolerasi.
Namun demikian multikolineritas tidak dapat dihilangkan pada kasus-
kasus khusus, dalam kasus kali ini multikolinearitas tidak dapat dihilangkan agar tidak bertentangan dengan hukum ekonomi. Namun
demikian, tetap
harus disertai
keterangan seberapa
besar multikolinearitas yang terjadi dalam data. Jika ada variabel dengan
VIF 10 maka variabel dapat dihilangkan dari model regresi.
2. Heterokedastisitas