Matriks Korelasi Multikolinearitas Studi Metode Regresi Ridge Dan Metode Analisis Komponen Utama Dalam Menyelesaikan Masalah Multikolinearitas

Jika A matriks n x n, maka pernyataan-pernyataan berikut ekivalen satu sama lain: 1. λ adalah nilai eigen dari A. 2. Sistem persamaan λ I – Ax = 0 mempunyai pemecahan yang taktrivial. 3. Ada vektor taknol x di dalam R n sehingga Ax = λ x. 4. λ adalah pemecahan riil dari persamaan karakteristik det λ I – A = 0. Vektor eigen A yang bersesuaian dengan nilai eigen λ adalah vektor taknol x yang memenuhi Ax = λ x. Secara ekivalen, vektor eigen yang bersesuaian dengan λ adalah vektor taknol dalam ruang pemecahan dari λ I – Ax = 0. Ruang pemecahan ini dinamakan sebagai ruang eigen eigenspace dari A yang bersesuaian dengan λ .

2.3. Matriks Korelasi

Misalkan persamaan ε β β β + + + + = p p X X Y ... 1 1 1 Keterangan: Y = peubah tak bebas X j = peubah bebas i β = parameter i ε = galat error dinyatakan sebagai ε β β β β β β + − + + − + − + + + + = ... ... 2 2 2 1 1 1 1 1 p p p p p X X X X X X X X Y 2 dengan j X = nilai tengah yang dihitung dari data j = 1, 2, ..., p Andaikan p p X X β β β β + + + = ∧ ... 1 1 Maka persamaan 2 dapat ditulis ε β β β β + − + + − + − + = ∗ ... 2 2 2 1 1 1 p p p X X X X X X Y Universitas Sumatera Utara atau ε β β β β + − + + − + − = − ∗ ... 2 2 2 1 1 1 p p p X X X X X X Y 3 Jika Y = ∗ β , maka ε β β β + − + + − + − = − ... 2 2 2 1 1 1 p p p X X X X X X Y Y 4 Matriks X t X untuk model ini adalah                       = PP p p p p p p t S S S S S S S S S S S S S S S S X X . . . . . . . . . . . . . . . 3 2 1 3 33 32 31 2 23 22 21 1 13 12 11 dengan 2 1 jj j ij ij S x x z − = dimana ∑ = − = n i j ij jj x x S 1 2 , dan 2 1 yy i i S y y y − = ∗ dimana ∑ = − = n i i yy y y S 1 2 , dengan i = 1, 2, …, n j = 1, 2, …, p Ini akan mengubah persamaan 4 menjadi ε β β β + + + + = ∗ p PP p yy Z S Z S Z S S y 2 1 2 2 1 22 2 1 2 1 11 1 2 1 1 ... 5 dengan b j = . ,..., 2 , 1 , 2 1 p j S S yy jj j =         β Dengan metode kuadrat terkecil, nilai dugaan parameter ∧ b pada persamaan di atas dapat ditentukan yaitu ∧ b = ∗ − Y Z Z Z t t 1 Universitas Sumatera Utara matriks Z t Z merupakan matriks korelasi yaitu:                       = 1 . . . . . . . . . 1 . . . 1 . . . 1 3 2 1 3 32 31 2 23 21 1 13 12 p p p p p p T r r r r r r r r r r r r Z Z dengan ∑ =         −         − = n i jj j nj ii i ni ij S x x S x x r 1 hubungan antara koefisien regresi data awal j ∧ β dengan koefisien regresi yang dibakukan j b ∧ adalah 2 1         = ∧ ∧ jj yy j j S S b β dan ∑ = ∧ ∧ − = n j j j x y 1 β β dengan j = 1, 2, ..., p y = rata-rata dari y x = rata-rata dari x.

2.4. Multikolinearitas

Multikolinearitas adalah hubungan linear antara beberapa atau semua variabel independen didalam model regresi. Salah satu asumsi model regresi linear klasik adalah bahwa tidak terdapat multikolinearitas diantara variabel-variabel independen yang masuk dalam model. Salah satu indikator yang dapat digunakan dalam mendeteks multikolinearitas adalah nilai VIF yang lebih dari 10 Gujarati, 2004. Pada mulanya multikolinearitas berarti adanya hubungan linear yang “sempurna” atau pasti, di antara beberapa atau semua variabel yang menjelaskan dari model regresi. Untuk regresi k-variabel, meliputi variabel yang menjelaskan X 1 , Universitas Sumatera Utara X 2 ,…,X k dimana X 1 = 1 untuk semua pengamatan untuk memungkinkan unsur intersep, suatu hubungan linear yang pasti dikatakan ada apabila kondisi berikut ini dipenuhi: ... 2 2 1 1 = + + + k k X X X λ λ λ 6 dimana X 1 , X 2 , …, X k = variabel ke 1, 2, …, k k λ λ λ ,..., , 2 1 = konstanta sedemikian rupa sehingga tidak semuanya secara simultan sama dengan nol. Tetapi, saat ini istilah multikolinearitas digunakan dalam pengertian yang lebih luas untuk memasukkan kasus multikolinearitas sempurna, seperti ditunjukkan oleh 6 maupun kasus dimana variabel X berkorelasi tetapi tidak secara sempurna, seperti kondisi berikut : ... 2 2 1 1 = + + + + i k k v X X X λ λ λ 7 dimana v i = unsur kesalahan stokhastik Gujarati, 1978. Untuk melihat perbedaan antara multikolinearitas yang sempurna dan kurang sempurna, asumsikan, sebagai contoh, bahwa 2 ≠ λ . Maka 7 dapat ditulis sebagai k k X X X X 2 3 2 3 1 2 1 2 ... λ λ λ λ λ λ − − − − = 8 yang menunjukkan bagaimana X 2 berhubungan linear secara sempurna dengan variabel lain atau bagaimana X 2 dapat diperoleh dari kombinasi linear variabel X lain. Dalam keadaan ini, koefisien korelasi antara variabel X 2 dan kombinasi linear di sisi kanan dari 8 akan menjadi sama dengan satu Gujarati, 1978. Serupa dengan itu, jika 2 ≠ λ , persamaan 7 dapat ditulis sebagai i k k v X X X X 2 2 3 2 3 1 2 1 2 1 ... λ λ λ λ λ λ λ − − − − − = 9 yang menunjukkan bahwa X 2 tidak merupakan kombinasi linear yang pasti dari X lainnya karena juga ditentukan oleh unsur kesalahan stokhastik v i Gujarati, 1978. Universitas Sumatera Utara

2.5. Konsekuensi Multikolinearitas

Dokumen yang terkait

Perbandingan Penggunaan Metode Analisis Regresi Ridge dan Metode Analisis Regresi Komponen Utama dalam Menyelesaikan Masalah Multikolinieritas (Studi Kasus Data PDRB Propinsi Sumatera Utara)

12 128 69

ANALISIS METODE PRINCIPAL COMPONENT ANALYSIS (KOMPONEN UTAMA) DAN REGRESI RIDGE DALAM MENGATASI DAMPAK MULTIKOLINEARITAS DALAM ANALISIS REGRESI LINEAR BERGANDA

13 88 144

Analisis penerapan metode kuadrat terkecil dan regresi komponen utama dalam multikolinearitas

1 8 78

METODE ANALISIS REGRESI KOMPONEN UTAMA DALAM MENGATASI MASALAH MULTIKOLINIERITAS.

0 0 6

(ABSTRAK) ANALISIS METODE PRINCIPAL COMPONENT ANALYSIS (KOMPONEN UTAMA) DAN REGRESI RIDGE DALAM MENGATASI DAMPAK MULTIKOLINEARITAS DALAM ANALISIS REGRESI LINEAR BERGANDA.

0 1 2

Penerapan Metode Generalized Ridge Regression dalam Mengatasi Masalah Multikolinearitas.

0 0 7

Regresi Komponen Utama, Regresi Ridge, dan Regresi Akar Laten dalam Mengatasi Masalah Multikolinieritas.

1 7 8

PERBANDINGAN REGRESI KOMPONEN UTAMA DENGAN REGRESI RIDGE UNTUK MENGATASI MASALAH MULTIKOLINIERITAS -

1 0 74

BAB 2 LANDASAN TEORI 2.1 Aljabar Matriks - Perbandingan Penggunaan Metode Analisis Regresi Ridge dan Metode Analisis Regresi Komponen Utama dalam Menyelesaikan Masalah Multikolinieritas (Studi Kasus Data PDRB Propinsi Sumatera Utara)

0 0 18

Perbandingan Regresi Ridge (Regresi Gulud) dan Principal Component Analysis (Analisis Komponen Utama) dalam Mengatasi Masalah Multikolinearitas - Repositori UIN Alauddin Makassar

0 1 115