Ridge Trace Analisis Komponen Utama

dan masing-masing variabel x. Akibat dari transformasi matriks X ke Z dan vektor y ke y , maka akan menjadikan persamaan normal regresi ridge yaitu: r xx +kI ∧ b = r xy . Sehingga penduga koefisien regresi ridge menjadi : ∧ b = r xx +kI -1 r xy. 15 Dengan ∧ b = vektor koefisien regresi ridge r xx = matriks korelasi variabel x berukuran pxp r xy = vektor korelasi antara variabel x dan y berukuran px1 k = tetapan bias I = matriks identitas berukuran pxp Masalah yang dihadapi dari regresi ridge adalah penentuan nilai dari c. prosedur yang cukup baik untuk menentukan nilai c ini adalah dengan menggunakan nilai statistik C P -Mallows yaitu C k . statistik C P -Mallows adalah suatu criteria yang berkaitan dengan rata-rata kuadrat error mean square error dari nilai kesesuaian model. Nilai k yang terpilih adalah yang meminimumkan nilai C k Mayers, 1990.

2.9. Ridge Trace

Ridge Trace adalah plot dari estimator Regresi Ridge dengan berbagai kemungkinan nilai tetapan bias c, konstanta c mencerminkan jumlah bias dalam estimator c ∧ β . Bila c = 0 maka estimator c ∧ β akan bernilai sama dengan kuadrat terkecil β , tetapi cenderung lebih stabil dari pada estimator kuadrat terkecil. Plot ini menggambarkan koefisien Regresi Ridge sebagai fungsi dari c. Universitas Sumatera Utara Nilai dari c berada pada interval 0.1. Pemilihan tetapan bias c merupakan masalah yang perlu diperhatikan. Tetapan bias yang diinginkan adalah tetapan bias yang menghasilkan bias relatif kecil dan menghasilkan koefisien yang relatif stabil. Tahapan penaksiran koefisien regresi ridge: 1. Lakukan transformasi tehadap matriks X menjadi Z dan vektor Y menjadi Y R , melalui centering and rescaling. 2. Hitung matriks ZZ = matriks korelasi dari variable bebas, serta hitung ZY R = korelasi dari variable bebas terhadap variable tak bebas y. 3. Hitung nilai penaksir parameter β dengan berbagai kemungkinan tetapan bias c. 4. Hitung nilai VIF dengan berbagai nilai c 0c1 5. Tentukan nilai c dengan mempertimbangkan nilai VIF dan β . Tentukan koefisien penduga estimator regresi ridge dari nilai c yang terpilih.. 6. Buat persamaan model regresi ridge 7. Uji Hipotesis secara Simultan dengan ANOVA regresi ridge dan Parsial . 8. Transformasikan ke bentuk asal.

2.10. Analisis Komponen Utama

Analisis komponen utama merupakan suatu teknik mereduksi data multivariat banyak data untuk mengubah mentransformasi suatu matrik data awalasli menjadi suatu set kombinasi linear yang lebih sedikit akan tetapi menyerap sebagian besar jumlah varian dari data awal. Analisis komponen utama tidak selalu bermanfaat. Analisis komponen utama digunakan untuk mereduksi banyaknya peubah asal menjadi beberapa peubah baru yang dapat menjelaskan dengan baik keragaman data asal. Bila tidak ada korelasi Universitas Sumatera Utara antara peubah asal, analisis komponen utama tidak akan memberikan hasil yang di inginkan, karena peubah baru yang diperoleh hanyalah peubah asal yang ditata berdasarkan besarnya keragamannya. Makin erat korelasi baik positif maupun negatif antara peubah, maka baik pula hasil yang diperoleh dari analisis komponen utama. Analisis komponen utama mengekstrak dengan cara yaitu komponen pertama menyerap varian matriks korelasi paling banyak. kemudian diikuti komponen kedua yang menyerap varian terbanyak kedua terhadap sisa varian dan begitu seterusnya, sampai komponen yang terakhir menyerap varian matriks korelasi paling sedikit. Setiap komponen yang berikutnya juga harus orthogonal yaitu tidak berkorelasi sama sekali dengan komponen sebelumnya atau yang mendahuluinya. Akhirnya, ketika p mendekati k, jumlah varian yang dijelaskan oleh setiap komponen semakin kecil. Tujuannya ialah untuk mempertahankan sejumlah komponen yang diperoleh bisa dipergunakan sebagai variabel bebas predictor dalam analisis regresidiskriminan atau analisis varian, yang sudah bebas dari multikolinearitas. Kalau W i = komponen ke i, maka diperoleh m persamaan berikut : W 1 = p p j j z z z z 1 1 2 12 1 11 ... ... γ γ γ γ + + + + + W 2 = p p j j z z z z 2 2 2 22 1 21 ... ... γ γ γ γ + + + + + . . . Wi = p ip j ij i z z z z γ γ γ γ + + + + + ... ... 2 12 1 1 . . . Wm = . ... ... 2 2 1 1 p mp j mj m m z z z z γ γ γ γ + + + + + dimana : W i = komponen ke i Universitas Sumatera Utara γ = vektor eigen z = nilai standar variabel Komponen yang ke-i yaitu W i merupakan kombinasi linear dari X 1 , X 2 , …, X j , …, X p dengan timbangan weight yaitu ip ij j j γ γ γ γ ,..., ,..., , 2 1 yang pemilihannya harus sedemikian rupa, sehingga memaksimumkan rasio dari varian komponen pertama W 1 dengan jumlah varian total variance data asliawal. Komponen berikutnya yaitu W 2 , juga kombinasi linear yang ditimbang dari seluruh variabel asli, tidak berkorelasi dengan komponen atau faktor pertama W 1 dan harus menyerap secara maksimum sisa varian yang ada Supranto, 2004. Langkah awal yang dilakukan dalam Analisis Komponen Utama adalah menentukan nilai eigen dan vektor eigen dari matriks R, matriks korelasi dari X. Dengan terlebih dahulu mengubah data yang distribusi normal umum menjadi distribusi normal baku dengan rumus Dengan : Z = nilai variabel yang di bakukan x = nilai data berdistribusi normal nilai rata-rata variabel σ = standar deviasi Nilai eigen matriks korelasi ini adalah r solusi r λ λ λ ,..., , 2 1 dari persamaan determinan = 0 dapat ditunjukkan bahwa jumlah akar-akar ciri matriks korelasi ini sama dengan tras trace matriks Z T Z. Universitas Sumatera Utara Untuk setiap akar ciri j λ terdapat vector ciri Characteristic vector j γ yang memenuhi sistem persamaan homogen = − j j T I Z Z γ λ . Vektor ciri solusinya 2 , 1 ,..., rj j j j γ γ γ γ = , yang dipilih dari sekian banyak solusi sebanding yang ada untuk setiap j, merupakan solusi yang ternormalkan sedemikian rupa sehingga 1 = j j γ γ . juga dapat diperlihatkan bahwa jika semua j λ berbeda, maka setiap pasangan vector ciri akan saling orthogonal sesamanya. Vektor j γ digunakan untuk membentuk Z ke dalam suku-suku komponen utama yaitu: r rj j j j z z z W γ γ γ + + + = ... 2 2 1 1 sehingga jumlah kuadrat setiap peubah baru j W , yang unsur-unsurnya ji W dengan n i ,..., 2 , 1 = , adalah . j λ Dengan kata lain, j W mengambil sejumlah j λ dari keragaman totalnya. Perhatikan bahwa ∑ = = r j j r 1 λ sehingga jumlah kuadrat totalnya ∑ ∑ = = = n i ji r j r W 1 2 1 seperti semula Draper and Smith, 1992. Jadi, prosedur ini menciptakan peubah-peubah baru j W dari peubah-peubah asalnya j Z , melalui suatu transformasi linear pada persamaan r rj j j j z z z W γ γ γ + + + = ... 2 2 1 1 sedemikian rupa sehingga vektor-vektor W itu orthogonal sesamanya. Peubah j W padanan nilai j λ yang terbesar disebut komponen utama pertama. Komponen ini menjelaskan bagian terbesar dari keragaman yang dikandung oleh gugusan data yang telah dibakukan. Komponen-komponen j W yang lain menjelaskan proporsi keragaman yang semakin lama semakin kecil sampai semua keragaman datanya terjelaskan, jadi ∑ = = p j j r 1 λ . Universitas Sumatera Utara Biasanya semua j W tidak digunakan melainkan mengikuti suatu aturan seleksi tertentu. Komponen-komponen dapat dihitung sampai sejumlah tertentu proporsi keragaman data yang cukup besar mungkin 75 persen atau lebih telah dijelaskan”, dengan kata lain, kita pilih k penyumbang terbesar yang menghasilkan . 75 , 1 ∑ = k j j r λ Aturan-aturan semacam ini secara otomatis memberi k peubah W yang merupakan hasil trasformasi terhadap peubah asal i Z . Selanjutnya prosedur kuadrat terkecil digunakan untuk memperoleh persamaan peramalan bagi Y sebagai fungsi dari peubah-peubah j W yang terpilih itu. Urutan masuknya pada peubah j W tidak ada pengaruhnya dalam hal ini, sebab semua yaitu orthogonal satu sama lain. Bila persamaan regresi dalam j W telah diperoleh, persamaan ini dapat dikembalikan menjadi fungsi peubah semula i Z bila dikehendaki, atau ditafsirkan berdasarkan peubah-peubah j W tadi Draper and Smith, 1992. Berlawanan dengan analisis komponen utama, analisis faktor didasarkan pada suatu anggapan, mendasari struktur kausal. Variabel yang terobservasi, dipercaya, disebabkan oleh beberapa konstrak laten yang tidak terlihat unseen latent construct. Sebagai contoh, kemampuan untuk menghasilkan bahwa ujian matematika yang sukses disebabkan oleh konstrak atau konsep yang tidak terlihat yang disebut :analytical intelligence. Secara konseptual hal ini merupakan suatu pendekatan yang berbeda dibandingkan dengan analisis komponen utama. Di dalam analisis akhir, analisis komponen utama menghasilkan reduksi dimensionalitas dari data set, sedangkan analisis faktor mencari untuk menjelaskan konstrak latent yang mungkin menjadi penyebab variabel yang dikumpulkan Supranto, 2004. Universitas Sumatera Utara Algoritma analisis komponen utama : 1. Mencari nilai rata-rata dari masing-masing variabel, dengan rumus : Keterangan : i = 1, 2, 3, …, n i X = nilai rata-rata variabel ke i i X = nilai data variabel ke i n = jumlah sampel. 2. Mencari standar deviasi setiap variabel dengan rumus : Keterangan : j = 1, 2, 3, …, n i S = standar deviasi ke i. 3. Menstandarkan masing-masing variabel bebas , dengan rumus : 4. Menentukan rata-rata setiap variabel yang telah distandarisasi, dengan rumus : dengan i Z = rata-rata variabel ke i yang telah distandarisasi. 5. Mencari koefisien korelasi dari variabel yang distandarkan, dengan rumus : dengan ij r = koefisien korelasi kolom ke i dan baris ke j. 6. Menentukan matriks korelasi, jika Z Z T adalah matriks korelasi, maka n X X i i ∑ = 1 2 − − = ∑ n X X S i ij i i i ij ij S X X Z − = n Z Z i i ∑ = ∑ ∑ ∑ − − − − = 2 2 j jk i ik j jk i ik ij Z Z Z Z Z Z Z Z r Universitas Sumatera Utara 7. Mencari nilai eigen λ yang lebih besar dari 1. Nilai eigen dicari dengan menggunakan persamaan dengan I = matriks identitas. 8. Mencari vektor eigen dari nilai eigen yang lebih besar dari satu dengan menggunakan persamaan : dengan j = 1, 2, 3, …, n j γ = vektor eigen ke j. 9. Komponen utama ke j untuk standar Z didapatkan yaitu : . Maka model regresi komponen utama dapat dirumuskan sebagai : Keterangan : Y = variabel tak bebas j W = variabel bebas komponen utama yang merupakan kombinasi linier dari semua variabel baku Zj=1, 2,….,m k = konstanta j k = koefisien model regresi j = 1, 2,….,m v = galat                       = 1 . . . . . . . . . 1 . . . 1 . . . 1 3 2 1 3 32 31 2 23 21 1 13 12 p p p p p p T r r r r r r r r r r r r Z Z = − I Z Z T λ = − j j T I Z Z γ λ r rj j j j Z Z Z W γ γ γ + + + = ... 2 2 1 1 v W k W k W k k Y m m + + + + + = ... 2 2 1 1 Universitas Sumatera Utara

BAB 3 METODE PENELITIAN

3.1. Bidang Penelitian

Dokumen yang terkait

Perbandingan Penggunaan Metode Analisis Regresi Ridge dan Metode Analisis Regresi Komponen Utama dalam Menyelesaikan Masalah Multikolinieritas (Studi Kasus Data PDRB Propinsi Sumatera Utara)

12 128 69

ANALISIS METODE PRINCIPAL COMPONENT ANALYSIS (KOMPONEN UTAMA) DAN REGRESI RIDGE DALAM MENGATASI DAMPAK MULTIKOLINEARITAS DALAM ANALISIS REGRESI LINEAR BERGANDA

13 88 144

Analisis penerapan metode kuadrat terkecil dan regresi komponen utama dalam multikolinearitas

1 8 78

METODE ANALISIS REGRESI KOMPONEN UTAMA DALAM MENGATASI MASALAH MULTIKOLINIERITAS.

0 0 6

(ABSTRAK) ANALISIS METODE PRINCIPAL COMPONENT ANALYSIS (KOMPONEN UTAMA) DAN REGRESI RIDGE DALAM MENGATASI DAMPAK MULTIKOLINEARITAS DALAM ANALISIS REGRESI LINEAR BERGANDA.

0 1 2

Penerapan Metode Generalized Ridge Regression dalam Mengatasi Masalah Multikolinearitas.

0 0 7

Regresi Komponen Utama, Regresi Ridge, dan Regresi Akar Laten dalam Mengatasi Masalah Multikolinieritas.

1 7 8

PERBANDINGAN REGRESI KOMPONEN UTAMA DENGAN REGRESI RIDGE UNTUK MENGATASI MASALAH MULTIKOLINIERITAS -

1 0 74

BAB 2 LANDASAN TEORI 2.1 Aljabar Matriks - Perbandingan Penggunaan Metode Analisis Regresi Ridge dan Metode Analisis Regresi Komponen Utama dalam Menyelesaikan Masalah Multikolinieritas (Studi Kasus Data PDRB Propinsi Sumatera Utara)

0 0 18

Perbandingan Regresi Ridge (Regresi Gulud) dan Principal Component Analysis (Analisis Komponen Utama) dalam Mengatasi Masalah Multikolinearitas - Repositori UIN Alauddin Makassar

0 1 115