Jika A matriks n x n, maka pernyataan-pernyataan berikut ekivalen satu sama lain: 1.
λ adalah nilai eigen dari A. 2. Sistem persamaan
λ I – Ax = 0 mempunyai pemecahan yang taktrivial. 3. Ada vektor taknol x di dalam R
n
sehingga Ax = λ x.
4. λ adalah pemecahan riil dari persamaan karakteristik det λ I – A = 0.
Vektor eigen A yang bersesuaian dengan nilai eigen λ adalah vektor taknol x
yang memenuhi Ax = λ x. Secara ekivalen, vektor eigen yang bersesuaian
dengan λ adalah vektor taknol dalam ruang pemecahan dari λ I – Ax = 0. Ruang
pemecahan ini dinamakan sebagai ruang eigen eigenspace dari A yang bersesuaian dengan
λ .
2.3. Matriks Korelasi
Misalkan persamaan ε
β β
β
+ +
+ +
=
p p
X X
Y ...
1 1
1 Keterangan: Y = peubah tak bebas
X
j
= peubah bebas
i
β = parameter
i
ε = galat error dinyatakan sebagai
ε β
β β
β β
β
+ −
+ +
− +
− +
+ +
+ =
... ...
2 2
2 1
1 1
1 1
p p
p p
p
X X
X X
X X
X X
Y
2 dengan
j
X = nilai tengah yang dihitung dari data j = 1, 2, ..., p
Andaikan
p p
X X
β β
β β
+ +
+ =
∧
...
1 1
Maka persamaan 2 dapat ditulis ε
β β
β β
+ −
+ +
− +
− +
=
∗
...
2 2
2 1
1 1
p p
p
X X
X X
X X
Y
Universitas Sumatera Utara
atau ε
β β
β β
+ −
+ +
− +
− =
−
∗
...
2 2
2 1
1 1
p p
p
X X
X X
X X
Y 3
Jika
Y =
∗
β , maka
ε β
β β
+ −
+ +
− +
− =
− ...
2 2
2 1
1 1
p p
p
X X
X X
X X
Y Y
4 Matriks X
t
X untuk model ini adalah
=
PP p
p p
p p
p
t
S S
S S
S S
S S
S S
S S
S S
S S
X X
. .
. .
. .
. .
. .
. .
. .
.
3 2
1 3
33 32
31 2
23 22
21 1
13 12
11
dengan
2 1
jj j
ij ij
S x
x z
− =
dimana
∑
=
− =
n i
j ij
jj
x x
S
1 2
,
dan
2 1
yy i
i
S y
y y
− =
∗
dimana
∑
=
− =
n i
i yy
y y
S
1 2
,
dengan i = 1, 2, …, n j = 1, 2, …, p
Ini akan mengubah persamaan 4 menjadi ε
β β
β +
+ +
+ =
∗ p
PP p
yy
Z S
Z S
Z S
S y
2 1
2 2
1 22
2 1
2 1
11 1
2 1
1
... 5
dengan b
j
=
. ,...,
2 ,
1 ,
2 1
p j
S S
yy jj
j
=
β
Dengan metode kuadrat terkecil, nilai dugaan parameter
∧
b
pada persamaan di atas dapat ditentukan yaitu
∧
b
=
∗ −
Y Z
Z Z
t t
1
Universitas Sumatera Utara
matriks Z
t
Z merupakan matriks korelasi yaitu:
=
1 .
. .
. .
. .
. .
1 .
. .
1 .
. .
1
3 2
1 3
32 31
2 23
21 1
13 12
p p
p p
p p
T
r r
r r
r r
r r
r r
r r
Z Z
dengan
∑
=
−
−
=
n i
jj j
nj ii
i ni
ij
S x
x S
x x
r
1
hubungan antara koefisien regresi data awal
j ∧
β dengan koefisien regresi yang dibakukan
j
b
∧
adalah
2 1
=
∧ ∧
jj yy
j j
S S
b β
dan
∑
= ∧
∧
− =
n j
j j
x y
1
β β
dengan j = 1, 2, ..., p y = rata-rata dari y
x
= rata-rata dari x.
2.4. Multikolinearitas
Multikolinearitas adalah hubungan linear antara beberapa atau semua variabel independen didalam model regresi. Salah satu asumsi model regresi linear klasik
adalah bahwa tidak terdapat multikolinearitas diantara variabel-variabel independen yang masuk dalam model. Salah satu indikator yang dapat digunakan dalam
mendeteks multikolinearitas adalah nilai VIF yang lebih dari 10 Gujarati, 2004.
Pada mulanya multikolinearitas berarti adanya hubungan linear yang “sempurna” atau pasti, di antara beberapa atau semua variabel yang menjelaskan dari
model regresi. Untuk regresi k-variabel, meliputi variabel yang menjelaskan X
1
,
Universitas Sumatera Utara
X
2
,…,X
k
dimana X
1
= 1 untuk semua pengamatan untuk memungkinkan unsur intersep, suatu hubungan linear yang pasti dikatakan ada apabila kondisi berikut ini
dipenuhi: ...
2 2
1 1
= +
+ +
k k
X X
X λ
λ λ
6 dimana X
1
, X
2
, …, X
k
= variabel ke 1, 2, …, k
k
λ λ
λ ,...,
,
2 1
= konstanta sedemikian rupa sehingga tidak semuanya secara simultan sama dengan nol.
Tetapi, saat ini istilah multikolinearitas digunakan dalam pengertian yang lebih luas untuk memasukkan kasus multikolinearitas sempurna, seperti ditunjukkan
oleh 6 maupun kasus dimana variabel X berkorelasi tetapi tidak secara sempurna, seperti kondisi berikut :
...
2 2
1 1
= +
+ +
+
i k
k
v X
X X
λ λ
λ 7
dimana v
i
= unsur kesalahan stokhastik Gujarati, 1978.
Untuk melihat perbedaan antara multikolinearitas yang sempurna dan kurang sempurna, asumsikan, sebagai contoh, bahwa
2
≠ λ
. Maka 7 dapat ditulis sebagai
k k
X X
X X
2 3
2 3
1 2
1 2
... λ
λ λ
λ λ
λ −
− −
− =
8 yang menunjukkan bagaimana X
2
berhubungan linear secara sempurna dengan variabel lain atau bagaimana X
2
dapat diperoleh dari kombinasi linear variabel X lain. Dalam keadaan ini, koefisien korelasi antara variabel X
2
dan kombinasi linear di sisi kanan dari 8 akan menjadi sama dengan satu Gujarati, 1978.
Serupa dengan itu, jika
2
≠ λ
, persamaan 7 dapat ditulis sebagai
i k
k
v X
X X
X
2 2
3 2
3 1
2 1
2
1 ...
λ λ
λ λ
λ λ
λ −
− −
− −
= 9
yang menunjukkan bahwa X
2
tidak merupakan kombinasi linear yang pasti dari X lainnya karena juga ditentukan oleh unsur kesalahan stokhastik v
i
Gujarati, 1978.
Universitas Sumatera Utara
2.5. Konsekuensi Multikolinearitas