KNM XVI - 3-6 Juli 2012
– UNPAD, Jatinangor
variabel bebas dan variabel tidak bebas serta dapat memprediksi nilai variabel tidak bebas. Akan tetapi, RKU tidak dapat mengetahui kontribusi relatif dari variabel bebas
berbeda dengan Regresi Bertatar
. Kata Kunci
: Multikolinearitas, Regresi Bertatar
,
Regresi Komponen Utama, Regresi Linier Berganda, VIF.
1. Pendahuluan
Analisis regresi linear berganda adalah salah satu metode statistika yang digunakan untuk mengetahui hubungan sebuah variabel tidak bebas
dependent variable
dengan beberapa variabel bebas
independent variable
. Pada analisis regresi linear berganda terdapat beberapa masalah yang dapat mempengaruhi hasil analisis data antara lain
pencilan, autokorelasi, kolinearitas ganda
multicollinearity
, dan heterogenitas. Permasalahan yang terjadi pada analisis regresi linear berganda dapat mengakibatkan
hasil analisis menjadi kurang akurat Montgomery [2]. Multikolinieritas terjadi karena antara variabel bebas saling berkorelasi.
Multikolinieritas atau kolinearitas ganda antar variabel akan menyebabkan jumlah
standard error
yang semakin membesar, sehingga menghasilkan keputusan yang tidak signifikan. Supranto [6] memaparkan bahwa kolinieritas ganda dapat mengakibatkan
beberapa hal seperti: 1 Pengujian hipotesis menjadi kurang akurat; 2
Standard error
koefisien regresi membesar; dan 3 Penaksiran yang berbias atau tidak stabil. Melihat dampak-dampak yang dapat ditimbulkan akibat adanya multikolinearitas maka
multikolinieritas ini perlu untuk diatasi. Terdapat beberapa cara yang dapat dilakukan untuk mengatasi multikolinieritas antara lain dengan Regresi Komponen Utama, dan
Regresi Bertatar
Stepwise Regression
. Regresi Bertatar
merupakan salah satu metode penentuan model regresi yang tidak mengandung multikolinearitas dalam pembentukan model terbaik. Regresi Komponen
Utama merupakan salah satu teknik dalam mengatasi multikolinearitas dengan cara mereduksi variabel-variabel yang ada menjadi beberapa variabel baru dengan variabel
baru ini saling bebas dan merupakan kombinasi linier dari variabel asal, Montgomery [2]. Regresi Komponen Utama dapat dipergunakan dalam berbagai kondisi karena penentuan
komponen utama yang terbentuk melalui tahap Analisis Komponen Utama
Principal Component Analysis
, sehingga keobjektifan dari penelitian masih tetap dipertahankan. Selain itu, pada Regresi Komponen Utama
Principal Component Regression
langkah yang dilakukan untuk mengatasi multikolinearitas yakni dengan mereduksi variabel asal
menjadi variabel baru dengan tidak mengalami proses penghilangan variabel asal, sehingga objek penelitian yang diangkat tidak berkurang yang mengakibatkan metode ini
menjadi alternatif yang paling sering dipergunakan oleh peneliti Jollife [1].
Bagaimana Regresi Bertatar dapat mengatasi multikolinearitas pada model Regresi Linear
Berganda? Bagaimana
Regresi Komponen
Utama dapat
mengatasi multikolinearitas pada model Regresi Linear Berganda? Bagaimana perbandingan antara
Regresi Bertatar dan Regresi Komponen Utama pada model Regresi Linear Berganda?
Perbandingan antara Regresi Bertatar dengan Regresi Komponen Utama ini kedua- duanya merupakan metode yang digunakan untuk mengatasi multikolinearitas dengan
menyederhanakan model regresi dugaan yang terbentuk dengan tetap mempergunakan prinsip Metode Kuadrat Terkecil
Least Squares Estimation
.
Pola hubungan pada analisis regresi dapat dinyatakan dalam bentuk persamaan regresi. Apabila ada p-1 variabel bebas
X
1
, X
2
, . . . , X
p-1
maka model regresi yang
730
ISBN : 978-602-19590-2-2
terbentuk yaitu:
Y
i
= β
+ β
1
X
i1
+ β
2
X
i2
+ +β
p-1
X
i,p-1
+ ε
i
Dengan: β
,β
1
, ,
β
p-1
adalah parameter, dan ε
i
adalah suku galat. Adapun fungsi respon untuk model di atas yakni
E{
Y
i
} = β
+ β
1
X
i1
+ β
2
X
i2
+
+ β
p-1
X
i,p-1
Istilah multikolinearitas pertama-tama ditemukan oleh Ragnar Frisch pada tahun 1934 yang berarti terdapat hubungan antara variabel bebas. Terjadinya multikolinearitas
diantara variabel-variabel bebas dapat mengakibatkan konsekuensi penting bagi penafsiran dan penggunaan model regresi dugaan, karena dapat menyebabkan tanda dari
koefisien regresi menjadi salah atau keputusan menjadi tidak signifikan
,
Sembiring [5]. Multikolinearitas dapat dilihat dari beberapa cara antara lain:
1. Variance Inflation Factor
VIF:
2
1 1
i
R i
VIF
Nilai 1-
2
i
R menunjukkan nilai toleransi yang mewakili varians dari variabel bebas ke-i yang tidak dihubungkan dengan variabel bebas lain pada model, sehingga nilai
VIF berbanding terbalik dengan nilai toleransi. Selain itu,
2
i
R menunjukkan nilai korelasi antar variabel, kenaikan korelasi antar variabel akan mengakibatkan kenaikan
nilai VIF yang menunjukkan terjadinya multikolinearitas.
2
i
R = 0 atau VIF=1 mengindikasikan variabel bebas ke-i yang orthogonal dengan variabel bebas lainnya. Adapun batasan yang dapat dipergunakan untuk menunjukkan
suatu variabel mengandung multikolinearitas yakni 4 ≤ VIF ≤ 10 O’Brien, [3]. Nilai VIF juga mengindikasikan seberapa besar peningkatan varians koefisien regresi dari
variabel bebas ke-i.
2. Pemeriksaan masing-masing elemen matriks korelasi. Jika elemen [r
ij
] mendekati 1 maka X
i
dan X
j
memiliki kecendrungan mengalami multikolinearitas.
Regresi bertatar merupakan kombinasi dari metode seleksi langkah maju
Forward Selection
dan metode eliminasi langkah mundur
Backward Elimination
. Regresi bertatar dilakukan dengan melalui beberapa tahapan. Pada masing-masing tahapan, akan
diputuskan variabel mana yang merupakan variabel bebas terbaik untuk dimasukkan ke dalam model.
Variabel ditentukan berdasarkan uji-F, variabel ditambahkan ke dalam model selama nilai p-
value
kurang dari nilai kritik α, kemudian dengan uji parsial dilakukan
penghapusan variabel yang tidak signifikan. Proses ini dilakukan terus menerus hingga tidak ada lagi variabel yang memenuhi kriteria untuk ditambahkan atau dihilangkan. Pada
Regresi Bertatar dapat juga dilakukan modifikasi yang memungkinkan variabel yang telah masuk sebelumnya dikeluarkan lagi hingga terbentuk model regresi terbaik
Montgomery [2].
Analisis komponen utama merupakan teknik statistik yang dapat digunakan untuk menjelaskan struktur variansi-kovariansi dari sekumpulan variabel melalui beberapa
variabel baru dengan variabel baru ini saling bebas dan merupakan kombinasi linear dari variabel asal. Keuntungan dari penggunaan Analisis Komponen Utama pertama dapat
menghilangkan korelasi secara bersih korelasi = 0, sehingga masalah multikolinearitas dapat benar-benar teratasi secara bersih. Kedua, dapat digunakan untuk segala kondisi
data atau penelitian. Ketiga, dapat dipergunakan tanpa mengurangi jumlah variabel asal.
731
KNM XVI - 3-6 Juli 2012
– UNPAD, Jatinangor
Ada dua cara dalam mendapatkan komponen utama, yaitu dengan matriks kovarian dan matriks korelasi.
Misal Σ merupakan matriks kovariansi dari vektor acak
p
X X
X X
, ,
,
2 1
dengan pasangan nilai
eigen
dan vektor
eigen
yang saling ortonormal adalah
, ,
, ,
, ,
2 2
1 1
p p
e e
e
dimana
2 1
p
, maka
komponen utama ke-i didefinisikan sebagai berikut: p
i X
e X
e X
e X
e C
p ip
i i
i i
, ,
2 ,
1 .
2 2
1 1
dengan
C
i
adalah komponen ke-i yang memenuhi maksimum nilai
i i
i
e e
.
p p
p
e e
. Urutan
C
1,
C
2
, ,
C
p
harus memenuhi persyaratan
p
2 1
. Selain berdasarkan matriks kovariansi, komponen utama juga dapat dibentuk
berdasarkan matriks korelasi. Hal ini dilakukan jika variabel-variabel bebas yang diamati mempunyai perbedaan range yang sangat besar.
Cara pembentukan regresi komponen utama melalui analisis komponen utama dapat berdasarkan matriks kovarian, dapat juga dengan matriks korelasi. Misal matriks
P
adalah matriks ortogonal dengan memenuhi persamaan
P¢P
=
PP ¢
=
I
. Karena
C
=
X
c
P
maka
C
Y Model regresi komponen utama yang telah direduksi menjadi
k
komponen adalah:
k k
C Y
1 dengan
X
c
merupakan matriks yang elemen-elemennya dikurangi dengan rataannya
centered
yang mensyaratkan rataan nol dan variansi σ
2
,
Y
adalah matriks yang berisi
variabel tak bebas, α
adalah intersep,
1
adalah vektor yang elemen-elemennya adalah 1
berukuran
n
x1,
C
k
adalah suatu matriks berukuran
n
x
k
yang elemennya terdapat komponen utama,
α
k
adalah vektor koefisien komponen utama berukuran
k
x1, dan ε
adalah vektor galat berukuran
n
x1. Persamaan regresi komponen utama berdasarkan matriks korelasi pada dasarnya
hampir sama dengan persamaan regresi komponen utama berdasarkan matriks kovarian yaitu variabel
X
1,
X
2,…,
X
p
diganti dengan variabel baku
Z
1,
Z
2,…,
Z
p
. Umumnya proses untuk memperoleh persamaan regresi
komponen utama berdasarkan matriks korelasi mempunyai proses yang sama pada penurunan persamaan
regresi komponen utama berdasarkan matriks kovariansi,
Prasetyo dkk [4]
.
2. Metode Penelitian