Pendahuluan Perbandingan Regresi Bertatar (Stepwise Regression) dan Regresi Komponen Utama (RKU) dalam Mengatasi Multikolinieritas Pada Model Regresi Linier Berganda.

KNM XVI - 3-6 Juli 2012 – UNPAD, Jatinangor variabel bebas dan variabel tidak bebas serta dapat memprediksi nilai variabel tidak bebas. Akan tetapi, RKU tidak dapat mengetahui kontribusi relatif dari variabel bebas berbeda dengan Regresi Bertatar . Kata Kunci : Multikolinearitas, Regresi Bertatar , Regresi Komponen Utama, Regresi Linier Berganda, VIF.

1. Pendahuluan

Analisis regresi linear berganda adalah salah satu metode statistika yang digunakan untuk mengetahui hubungan sebuah variabel tidak bebas dependent variable dengan beberapa variabel bebas independent variable . Pada analisis regresi linear berganda terdapat beberapa masalah yang dapat mempengaruhi hasil analisis data antara lain pencilan, autokorelasi, kolinearitas ganda multicollinearity , dan heterogenitas. Permasalahan yang terjadi pada analisis regresi linear berganda dapat mengakibatkan hasil analisis menjadi kurang akurat Montgomery [2]. Multikolinieritas terjadi karena antara variabel bebas saling berkorelasi. Multikolinieritas atau kolinearitas ganda antar variabel akan menyebabkan jumlah standard error yang semakin membesar, sehingga menghasilkan keputusan yang tidak signifikan. Supranto [6] memaparkan bahwa kolinieritas ganda dapat mengakibatkan beberapa hal seperti: 1 Pengujian hipotesis menjadi kurang akurat; 2 Standard error koefisien regresi membesar; dan 3 Penaksiran yang berbias atau tidak stabil. Melihat dampak-dampak yang dapat ditimbulkan akibat adanya multikolinearitas maka multikolinieritas ini perlu untuk diatasi. Terdapat beberapa cara yang dapat dilakukan untuk mengatasi multikolinieritas antara lain dengan Regresi Komponen Utama, dan Regresi Bertatar Stepwise Regression . Regresi Bertatar merupakan salah satu metode penentuan model regresi yang tidak mengandung multikolinearitas dalam pembentukan model terbaik. Regresi Komponen Utama merupakan salah satu teknik dalam mengatasi multikolinearitas dengan cara mereduksi variabel-variabel yang ada menjadi beberapa variabel baru dengan variabel baru ini saling bebas dan merupakan kombinasi linier dari variabel asal, Montgomery [2]. Regresi Komponen Utama dapat dipergunakan dalam berbagai kondisi karena penentuan komponen utama yang terbentuk melalui tahap Analisis Komponen Utama Principal Component Analysis , sehingga keobjektifan dari penelitian masih tetap dipertahankan. Selain itu, pada Regresi Komponen Utama Principal Component Regression langkah yang dilakukan untuk mengatasi multikolinearitas yakni dengan mereduksi variabel asal menjadi variabel baru dengan tidak mengalami proses penghilangan variabel asal, sehingga objek penelitian yang diangkat tidak berkurang yang mengakibatkan metode ini menjadi alternatif yang paling sering dipergunakan oleh peneliti Jollife [1]. Bagaimana Regresi Bertatar dapat mengatasi multikolinearitas pada model Regresi Linear Berganda? Bagaimana Regresi Komponen Utama dapat mengatasi multikolinearitas pada model Regresi Linear Berganda? Bagaimana perbandingan antara Regresi Bertatar dan Regresi Komponen Utama pada model Regresi Linear Berganda? Perbandingan antara Regresi Bertatar dengan Regresi Komponen Utama ini kedua- duanya merupakan metode yang digunakan untuk mengatasi multikolinearitas dengan menyederhanakan model regresi dugaan yang terbentuk dengan tetap mempergunakan prinsip Metode Kuadrat Terkecil Least Squares Estimation . Pola hubungan pada analisis regresi dapat dinyatakan dalam bentuk persamaan regresi. Apabila ada p-1 variabel bebas X 1 , X 2 , . . . , X p-1 maka model regresi yang 730 ISBN : 978-602-19590-2-2 terbentuk yaitu: Y i = β + β 1 X i1 + β 2 X i2 +  +β p-1 X i,p-1 + ε i Dengan: β ,β 1 , ,  β p-1 adalah parameter, dan ε i adalah suku galat. Adapun fungsi respon untuk model di atas yakni E{ Y i } = β + β 1 X i1 + β 2 X i2 +  + β p-1 X i,p-1 Istilah multikolinearitas pertama-tama ditemukan oleh Ragnar Frisch pada tahun 1934 yang berarti terdapat hubungan antara variabel bebas. Terjadinya multikolinearitas diantara variabel-variabel bebas dapat mengakibatkan konsekuensi penting bagi penafsiran dan penggunaan model regresi dugaan, karena dapat menyebabkan tanda dari koefisien regresi menjadi salah atau keputusan menjadi tidak signifikan , Sembiring [5]. Multikolinearitas dapat dilihat dari beberapa cara antara lain: 1. Variance Inflation Factor VIF: 2 1 1 i R i VIF   Nilai 1- 2 i R menunjukkan nilai toleransi yang mewakili varians dari variabel bebas ke-i yang tidak dihubungkan dengan variabel bebas lain pada model, sehingga nilai VIF berbanding terbalik dengan nilai toleransi. Selain itu, 2 i R menunjukkan nilai korelasi antar variabel, kenaikan korelasi antar variabel akan mengakibatkan kenaikan nilai VIF yang menunjukkan terjadinya multikolinearitas. 2 i R = 0 atau VIF=1 mengindikasikan variabel bebas ke-i yang orthogonal dengan variabel bebas lainnya. Adapun batasan yang dapat dipergunakan untuk menunjukkan suatu variabel mengandung multikolinearitas yakni 4 ≤ VIF ≤ 10 O’Brien, [3]. Nilai VIF juga mengindikasikan seberapa besar peningkatan varians koefisien regresi dari variabel bebas ke-i. 2. Pemeriksaan masing-masing elemen matriks korelasi. Jika elemen [r ij ] mendekati 1 maka X i dan X j memiliki kecendrungan mengalami multikolinearitas. Regresi bertatar merupakan kombinasi dari metode seleksi langkah maju Forward Selection dan metode eliminasi langkah mundur Backward Elimination . Regresi bertatar dilakukan dengan melalui beberapa tahapan. Pada masing-masing tahapan, akan diputuskan variabel mana yang merupakan variabel bebas terbaik untuk dimasukkan ke dalam model. Variabel ditentukan berdasarkan uji-F, variabel ditambahkan ke dalam model selama nilai p- value kurang dari nilai kritik α, kemudian dengan uji parsial dilakukan penghapusan variabel yang tidak signifikan. Proses ini dilakukan terus menerus hingga tidak ada lagi variabel yang memenuhi kriteria untuk ditambahkan atau dihilangkan. Pada Regresi Bertatar dapat juga dilakukan modifikasi yang memungkinkan variabel yang telah masuk sebelumnya dikeluarkan lagi hingga terbentuk model regresi terbaik Montgomery [2]. Analisis komponen utama merupakan teknik statistik yang dapat digunakan untuk menjelaskan struktur variansi-kovariansi dari sekumpulan variabel melalui beberapa variabel baru dengan variabel baru ini saling bebas dan merupakan kombinasi linear dari variabel asal. Keuntungan dari penggunaan Analisis Komponen Utama pertama dapat menghilangkan korelasi secara bersih korelasi = 0, sehingga masalah multikolinearitas dapat benar-benar teratasi secara bersih. Kedua, dapat digunakan untuk segala kondisi data atau penelitian. Ketiga, dapat dipergunakan tanpa mengurangi jumlah variabel asal. 731 KNM XVI - 3-6 Juli 2012 – UNPAD, Jatinangor Ada dua cara dalam mendapatkan komponen utama, yaitu dengan matriks kovarian dan matriks korelasi. Misal Σ merupakan matriks kovariansi dari vektor acak   p X X X X , , , 2 1   dengan pasangan nilai eigen dan vektor eigen yang saling ortonormal adalah , , , , , , 2 2 1 1 p p e e e     dimana 2 1     p     , maka komponen utama ke-i didefinisikan sebagai berikut: p i X e X e X e X e C p ip i i i i , , 2 , 1 . 2 2 1 1         dengan C i adalah komponen ke-i yang memenuhi maksimum nilai i i i e e    . p p p e e    . Urutan C 1, C 2 , ,  C p harus memenuhi persyaratan p        2 1 . Selain berdasarkan matriks kovariansi, komponen utama juga dapat dibentuk berdasarkan matriks korelasi. Hal ini dilakukan jika variabel-variabel bebas yang diamati mempunyai perbedaan range yang sangat besar. Cara pembentukan regresi komponen utama melalui analisis komponen utama dapat berdasarkan matriks kovarian, dapat juga dengan matriks korelasi. Misal matriks P adalah matriks ortogonal dengan memenuhi persamaan P¢P = PP ¢ = I . Karena C = X c P maka     C Y Model regresi komponen utama yang telah direduksi menjadi k komponen adalah:       k k C Y 1 dengan X c merupakan matriks yang elemen-elemennya dikurangi dengan rataannya centered yang mensyaratkan rataan nol dan variansi σ 2 , Y adalah matriks yang berisi variabel tak bebas, α adalah intersep, 1 adalah vektor yang elemen-elemennya adalah 1 berukuran n x1, C k adalah suatu matriks berukuran n x k yang elemennya terdapat komponen utama, α k adalah vektor koefisien komponen utama berukuran k x1, dan ε adalah vektor galat berukuran n x1. Persamaan regresi komponen utama berdasarkan matriks korelasi pada dasarnya hampir sama dengan persamaan regresi komponen utama berdasarkan matriks kovarian yaitu variabel X 1, X 2,…, X p diganti dengan variabel baku Z 1, Z 2,…, Z p . Umumnya proses untuk memperoleh persamaan regresi komponen utama berdasarkan matriks korelasi mempunyai proses yang sama pada penurunan persamaan regresi komponen utama berdasarkan matriks kovariansi, Prasetyo dkk [4] .

2. Metode Penelitian