Regresi Komponen Utama Principal Component Regression

wilayah. Hal ini tentu terkait dengan salah satu indikator yang terdapat dalam IPM, yaitu standar hidup yang diukur dengan tingkat daya beli. Spesifikasi Model: 1. Variabel terikat: IPM Variabel IPM digenerate dari nilai Indeks Pembangunan manusia. Nilai indeks tersebut adalah antara 0.00-1.00. 2. Variabel bebas Variabel bebas terdiri dari alokasi pengeluaran pembangunan sektor pertanian, alokasi pengeluaran pembangunan sektor pendidikan, alokasi pengeluaran pembangunan sektor kesehatan, alokasi pengeluaran pembangunan sektor perumahan, dan alokasi pengeluaran pembangunan infrastruktur dan PDRB. Variabel bebas ini digenerate dari data APBD Kota Tangerang periode 1992-2008. 3. Variabel dummy otonomi daerah Pada model ini dimasukkan varibel dummy yang ditujukan untuk mengkuantifikasi variabel otonomi daerah dimana: Sebelum otonomi = 0 Setelah otonomi = 1 Variabel dummy otonomi daerah yang dalam penelitian ini dioperasionalisasi dan diindikasi oleh alokasi belanja publik dipilih pada persamaan ini mengingat variabel otonomi merupakan variabel indikator yang hasil estimasi ordinary least square-nya diharapkan dapat menunjukkan hubungan dan sekaligus menduga implikasi alokasi belanja publik terhadap IPM di Kota Tangerang sebelum dan setelah pelaksanaan otonomi daerah.

3.6.2.1 Regresi Komponen Utama Principal Component Regression

Suatu model dikatakan valid dan tidak bias untuk menduga variabel bebas jika mempunyai sifat Best Linear Unbiased Estimator BLUE sebagaimana telah disebut di atas. Di samping itu, kesesuaian model juga dilihat dari kriteria statistik yaitu koefisien determinasi R 2 , uji-F dan uji-t. Terdapat beberapa cara untuk mendeteksi adanya multikolinieritas pada model, diantaranya adalah 1 uji koefisien korelasi sederhana pearson correlation coefficient antara variabel bebas di dalam model; 2 uji koefisien korelasi ganda atau akar Rj 2 koefisien determinasi dari model. Jika Rj 2 Ada banyak cara dan pendekatan yang dilakukan untuk mengatasi masalah multikolinieritas, seperti 1 membuang variabel bebas yang mempunyai multikolinieritas tinggi terhadap variabel bebas lainnya; 2 menambah data pengamatan dan 3 melakukan transformasi terhadap variabel-variabel bebas yang mempunyai kolinieritas tinggi atau menggabungkan menjadi variabel-variabel bebas baru yang mempunyai arti. Cara lain yang digunakan adalah menggunakan regresi gulud ridge regression, regresi kuadrat terkecil parsial partial least square dan regresi komponen utama principal component regression. Dalam penelitian ini, solusi atas masalah multikolinieritas dipecahkan dengan analisis regresi komponen utama. tinggi dan signifikan atau dari statistik uji-F 1,n-k-1 dapat disimpulkan bahwa modelnya signifikan berarti ada multikolinieritas. Deteksi 2 ini dapat dilihat pada nilai Variance Inflation Factor VIR pada output Minitab. Nilai VIF lebih dari 10 menunjukkan bahwa dalam model terdapat masalah multikolinieritas Juanda, 2009. Analisis komponen utama adalah mentransformasi variabel-variabel bebas yang berkorelasi menjadi variabel-variabel baru yang orthogonal dan tidak berkorelasi. Analisis ini bertujuan untuk menyederhanakan variabel- variabel yang diamati dengan cara mereduksi dimensinya. Hal ini dilakukan dengan menghilangkan korelasi di antara variabel melalui transformasi variabel asal ke variabel baru komponen utama yang tidak berkorelasi Gaspers, 1995 dalam Ulpah, 2006. Dengan menggunakan konsep aljabar linier tentang diagonalisasi matriks, matriks korelasi R atau matriks ragam peragam ∑ dengan dimensi pxp, simetrik dan non-singular, dapat direduksi menjadi matriks diagonal D dengan pengali awal dan pengali akhir suatu matriks orthogonal V. dapat dituliskan sebagai: V` R V = D…………………………………………………………………3.1 λ 1 ≥ λ 2 ≥ … ≥ λ p ≥ 0 adalah akarciri-akarciri dari matriks R yang merupakan unsur-unsur diagonal matriks D, sedangkan kolom-kolom matriks V, v 1 , v 2 , …v p adalah vektorciri- vektorciri R. Adapun λ 1, λ 2 , … λ p | R – λ I | = 0………………………………………………………………3.2 dapat diperoleh melalui persamaan berikut: dengan I adalah matriks identitas. Adapun vektorciri-vektorciri v 1 , v 2 , …v p | R – λ I | v dapat diperoleh melalui persamaan berikut: j = 0, di mana v j = v 1j , v 2j ,…v pj Misalkan suatu persamaan regresi dinyatakan dapat bentuk sebagai berikut: ……………………....………3.3 Y = X + ε…………………………………………………………………3.4 Jika suatu matriks pengamatan X yang telah dibakukan dilambangkan dengan Z sehingg a diperoleh akarciri λ dan vektorciri V dari Z`Z bentuk korelasi dan V`V = I karena V orthogonal, persamaan regresi asal dapat ditulis sebagai berikut: Y = Z + ε Y = Y = 1 + ZVV`B + ε Dengan W = ZV dan α = V` 1 + Wα + ε W = Z V.…………………………………………………….…3.5 W `W = ZV ` ZV = V`Z`ZV…..……………………………3.6 Persamaan 3 .6 akan menghasilkan diagonal λ 1, λ 2 , … λ p yang setara dengan VarW i = λ 1 dan CovW i-1 ,W i = 0. Hal ini menunjukkan bahwa komponen utama tidak saling berkorelasi dan komponen utama ke-i memiliki keragaman sama dengan akarciri ke-i. Sedangkan ragam koefisien regresi dari m komponen utama adalah: m g p a s i Var m g ig g ,... 2 , 1 ; ,... 2 , 1 1 , 1 2 2 = = = ∑ = λ γ ………………………....3.7 Dimana a ig adalah koefisien pembobot komponen utama vektorciri, λ g adalah akarciri. Sedangkan s 2 ∑ − = = 2 2 2 y y s JKT KTG s adalah: ……………………………………….…………3.8 Tahap-tahap yang dilakukan dalam analisis regresi komponen utama adalah: Ulpah, 2006 1. Membakukan variabel bebas asal yaitu X menjadi Z 2. Mencari akarciri dan vektorciri dari matriks R 3. Menentukan persamaan komponen utama dari vektorciri 4. Meregresikan variabel tak bebas Y terhadap skor komponen utama W 5. Transformasi balik, sehingga persamaan regresi kembali ke persamaan semula, yaitu Y = X + ε. 6. Mencari simpangan baku dengan berdasar pada persamaan 3.7 yang digunakan untuk uji koefisien regresi.

3.6 Kerangka Pikir Operasional Penelitian