2.6. Pendeteksian Multikolinearitas
Menurut Gujarati 1978 ada beberapa cara untuk mendeteksi ada tidaknya
multikolinearitas diantaranya yaitu :
1. Menghitung koefisien korelasi sederhana simple correlation antara sesama variabel bebas, jika terdapat koefisien korelasi sederhana yang mencapai atau
melebihi 0.8 maka hal tersebut menunjukkan terjadinya masalah multikolinearitas dalam regresi.
2. Menghitung nilai Toleransi atau VIF Variance Inflation Factor, jika nilai Toleransi kurang dari 0.1 atau nilai VIF melebihi 10 maka hal tersebut
menunjukkan bahwa multikolinearitas adalah masalah yang pasti terjadi antar variabel bebas.
3. Lakukan regresi antar variabel bebas dan menghitung masing-masing
2
R , kemudian melakukan uji–F dan bandingkan dengan F tabel. Jika nilai F hitung
melebihi nilai F tabel berarti dapat dinyatakan bahwa
i
X kolinier dengan X yang lain.
2.7. Regresi Linear Berganda
Regresi linear berganda adalah regresi dimana variabel terikatnya Y dihubungkan atau dijelaskan dengan lebih dari satu variabel bebas X
1,
X
2
……..X
n
dengan syarat variabel bebas masih menunjukkan hubungan yang linear dengan variabel tak bebas.
Hubungan fungsional antara variabel dependen Y dengan variabel independent X
1,
X
2
……..X
n
secara umum dapat dituliskan sebagai berikut: Y = fX
1,
X
2
……..X
n
dengan : Y = variabel independen
X
1,
X
2
……..X
n
= variabel independent.
Universitas Sumatera Utara
Model regresi linear berganda merupakan suatu model yang dapat dinyatakan dalam persamaan linear yang memuat peubaha dan parameter. Parameter ini pada
umumnya tidak diketahui dan dapat ditaksir. Hubungan linear lebih dari dua peubah bila dinyatakan dalam bentuk persamaan matematis adalah:
Ŷ = b + b
1
X
1
+ b
2
X
2
+ … + b
i
X
i
dengan
∧
Y = nilai estimasi Y X
i
= peubah bebas b
i
= parameter Koefisien-koefisien
bi b
b ,...,
,
1
dapat ditentukan dengan menggunakan metode kuadrat terkecil least square method. Metode kuadrat terkecil untuk menentukan
persamaan linear estimasi, berarti memilih satu kurva linear dari beberapa kemungkinan kurva linear yang dapat dibuat dari data yang ada yang mempunyai
error paling kecil dari data aktual dengan data estimasinya.
2.8. Metode Regresi Ridge
Metode regresi ridge merupakan salah satu metode yang dianjurkan untuk memperbaiki masalah multikolinearitas dengan cara memodifikasi metode kuadrat
terkecil, sehingga dihasilkan penduga koefisien regresi lain yang bias. Modifikasi metode kuadrat terkecil dilakukan dengan cara menambah tetapan bias c yang relatif
kecil pada diagonal matriks X’X , sehingga penduga koefisien regresi dipengaruhi oleh besarnya tetapan bias k. pada umumnya nilai c terletak antara 0 dan 1.
Hoerl dan Kennard 1970, membahas tentang cara mengatasi kondisi burukill conditionyang diakibatkan oleh korelasi yang tinggi antara beberapa
peubah peramal dalam model, sehingga menyebabkan matriksX’X-nya hampir singular, yang pada gilirannya akan menghasilkan nilai dugaan parameter yang tidak
stabil. Hasil akhir yang diperoleh dari penyelesaian masalah multikolinieritas dengan
Universitas Sumatera Utara
regresi ridge ini adalah masih memungkinkan untuk melakukan seleksi terhadap variabel asal.
Dalam regresi ridge variabel bebas x dan variabel tak bebas y ditransformasikan dalam bentuk variabel baku Z dan Y
, dimana transformasi variabel bebas dan variabel tak bebas ke bentuk variabel baku diperoleh dari
10
dengan Z = nilai variabel yang di bakukan x = nilai variabel x
x
= nilai rata-rata x
x
S = simpangan baku x
11 dengan
∗
Y = nilai variabel y yang dibakukan y = nilai variabel y
y = nilai rata-rata y
y
S
= simbangan baku y Selanjutnya
12
13
Sementara itu, rumus dari korelasi
14
Sehingga persamaan normal kuadrat terkecil XXb=X’y akan berbentuk r
xx
b=r
xy
, dengan r
xx
adalah matriks korelasi variabel x dan r
xy
adalah matriks korelasi variabel y
x
S x
x Z
− =
−
−
=
x x
S x
x S
x x
Z Z
.
y
S y
y Y
− =
∗
−
−
=
y x
S y
y S
x x
y Z
.
x x
xx
S S
x x
x x
r −
− =
Universitas Sumatera Utara
dan masing-masing variabel x. Akibat dari transformasi matriks X ke Z dan vektor y ke y
, maka akan menjadikan persamaan normal regresi ridge yaitu: r
xx
+kI
∧
b
= r
xy
. Sehingga penduga koefisien regresi ridge menjadi :
∧
b
= r
xx
+kI
-1
r
xy.
15 Dengan
∧
b
= vektor koefisien regresi ridge r
xx
= matriks korelasi variabel x berukuran pxp r
xy
= vektor korelasi antara variabel x dan y berukuran px1 k = tetapan bias
I = matriks identitas berukuran pxp
Masalah yang dihadapi dari regresi ridge adalah penentuan nilai dari c. prosedur yang cukup baik untuk menentukan nilai c ini adalah dengan menggunakan
nilai statistik C
P
-Mallows yaitu C
k
. statistik C
P
-Mallows adalah suatu criteria yang berkaitan dengan rata-rata kuadrat error mean square error dari nilai kesesuaian
model. Nilai k yang terpilih adalah yang meminimumkan nilai C
k
Mayers, 1990.
2.9. Ridge Trace