Ada banyak cara dan pendekatan yang dapat digunakan untuk mengatasi masalah multikolinearitas, diantaranya:
a. Menghilangkan peubah bebas yang mempunyai multikolineritas tinggi terhadap peubah bebas lainnya.
b. Menambah data pengamatan atau contoh, c. Melakukan transformasi terhadap peubah-peubah bebas yang
mempunyai kolineritas atau menggabungkan menjadi peubah-peubah bebas baru yang mempunyai arti.
Selain cara-cara tersebut, terdapat beberapa metode yang dapat diterapkan, seperti penggunaan regresi gulud, regresi kuadrat terkecil, dan
regresi komponen utama. Regresi komponen utama merupakan suatu metode yang dikenal naik dan sering digunakan untuk mengatasi masalah
multikolinearitas, karena pendugaan dengan metode tersebut akan menghasilkan nilai dugaan yang memiliki tingkat ketelitian lebih tinggi,
serta dengan jumlah kuadrat sisaan yang lebih kecil dibandingkan dengan pendugaan menggunakan metode kuadrat terkecil Gasperz dalam Ulpah,
2006.
3.6.1.1 Regresi Komponen Utama
Analisis komponen utama pada dasarnya mentransformasi peubah- peubah bebas yang berkorelasi menjadi peubah-peubah baru yang
orthogonal dan tidak berkorelasi. Analisis ini bertujuan untuk menyederhanakan peubah-peubah yang diamati dengan cara mereduksi
dimensinya. Hal ini dilakukan dengan menghilangkan korelasi di antara peubah melalui transformasi peubah asal ke peubah baru komponen
utama yang tidak berkorelasi Gasperz dalam Ulpah, 2006. Konsep aljabar linier tentang diagonalisasi matriks digunakan
dalam anlisis tersebut, matriks korelasi R atau matriks ragam peragam Σ
dengan dimensi pxp, simetrik dan non singular, dapat direduksi menjadi matriks diagonal D dengan pengali awal dan pengali akhir suatu matriks
orthogonal V atau dapat dituliskan sebagai berikut : V’ R V = D
8 λ
1
λ
2
... λ
p
0 adalah akar ciri - akar ciri dari matriks R yang merupakan unsur-unsur diagonal matriks D, sedangkan kolom-kolom
matriks V, v
1
, v
2
,..., v
p
adalah vektor -vektor ciri R . Ada pun λ
1,
λ
2,
..., λ
p
dapat diperoleh melaului persamaan berikut:
|– λI|= 0
9 Jika peubah yang diamati mempunyai satuan pengukuran berbeda,
maka perlu dibakukan. Dalam hal ini, komponen utama diturunkan dari matriks korelasi R. Matriks peragam
Σ digunakan apabila semua peubah yang diamati, diukur dalam satuan pengukuran yang sama. Misalkan x1,
x2, ..., xp adalah peubah acak berdimensi p yang mengikuti sebaran normal ganda dengan vektor nilai tengah
υ dan matriks peragam Σ serta
matriks korelasi R, dapat ditulis dalam bentuk vektor X’ = x
1
x
2
... x
p
. P peubah asal tadi dapat diturunkan p buah komponen utama untuk
menerangkan komponen total sistem, dan sering kali keragaman total itu dapat diterangkan secara memuaskan oleh sejumlah kecil komponen
utama, misal k buah komponen dimana kp. Peubah bebas pada regresi komponen utama merupakan kombinasi
linier dari peubah asal Z Z adalah hasil pembakuan dari peubah X, yang disebut sebagai komponen utama. Komponen utama ke-j dapat dinyatakan
dalam bentuk persamaan berikut: W
j
= v
1j
Z
1
+ v
2j
Z
2
+ ... + v
pj
Z
p
10 Dimana W
j
saling ortogonal sesamanya. Komponen ini menjelaskan bagian terbesar dari keragaman yang dikandung oleh gugusan
data yang telah dibakukan. Komponen-komponen W yang lain
menjelaskan proporsi keragaman yang semakin lama semakin kecil sampai semua keragaman datanya terjelaskan. Tetapi biasanya tidak semua W
digunakan, sebagian ahli menganjurkan agar memilih komponen utama yang akar cirinya lebih besar dari satu, karena jika akar ciri kurang dari
satu maka keragaman data yang dapat diterangkan oleh komponen utama tersebut sangat kecil. Pemilihan komponen-komponen utama disarankan
yang memiliki keragaman kumulatif sampai kira-kira 75 persen. Adapun pembakuan yang dimaksud adalah dengan mengurangkan
setiap peubah bebas asal X
j
dengan rata-rata dan dibagi simpangan baku, dapat dinotasikan sebagai berikut:
Z = Xj – X 11
s
Misalkan suatu persamaan regresi dinyatakan dalam bentuk sebagai berikut:
Y = X + ε 12
Jika suatu matriks pengamatan X yang telah dibakukan
dilambangkan dengan Z sehingga diperoleh akar ciri λ dan vektor ciri
V dari Z’Z bentuk korelasi dan V’V = I karena V ortogonal, persamaan regresi asal dapat dituliskan sebagai berikut:
Y = Z + ε 13
Y = 1 + ZVV’ + ε
14 Y =
1 + Wα + ε 15
dengan W = ZV dan α = V’
W = Z V 16
W’W = ZV’ZV = V’Z’ZV 17
Persamaan 17 akan menghasilkan diagonal λ
1
,λ
2
,...λ
p
yang setara dengan VarW
i
= λ
i
dan CovW
i-1
,W
i
= 0. Hal ini menunjukkan bahwa komponen utama tidak saling berkorelasi dan komponen utama ke-i
memiliki keragaman sama dengan akar ciri ke-i, sedangkan ragam koefisien regresi dari m komponen utama adalah:
Var
i
= s
2
Σ , i = 1, 2, ..., m 18
g=1
Dimana : a
ig
adalah koefisien pembobot komponen utama vektor ciri,
λ
g
adalah akar ciri, sedangkan s
2
adalah: s
2
= KTG= s
2
_____ JKT
Σy-y
2
19
3.6.1.2 Bias dalam Penduga Koefisien Regresi Komponen Utama