Koefisien Determinasi Regresi Komponen Utama

Selanjutnya, jika model regresi layak digunakan akan dilakukan lagi uji terhadap koefisien-koefisien regresi secara terpisah untuk mengetahui apakah koefisien tersebut layak dipakai dalam persamaan atau tidak. Rumusan hipotesis untuk menguji parameter regresi secara parsial adalah sebagai berikut : artinya koefisien regresi ke– j tidak signifikan atau variabel bebas ke- j tidak berpengaruh nyata terhadap Y . artinya koefisien regresi ke- j signifikan atau variabel bebas ke- j berpengaruh nyata terhadap Y. Statistik uji yang digunakan untuk menguji parameter regresi secara parsial adalah: ̂ ̂ √ ̂ 2.23 Jika | ̂ | maka ditolak yang artinya variabel bebas ke- j berpengaruh nyata terhadap Y .

2.6 Koefisien Determinasi

Koefisien determinasi adalah nilai yang menunjukkan seberapa besar nilai variabel Y dijelaskan oleh variable X . Koefisien determinasi merupakan salah satu patokan yang biasa digunakan untuk melihat apakah suatu model regresi yang dicocokkan belum atau sudah memadai, yang dinotasikan dengan R 2 . Koefisien determinasi ini hannya menunjukkan ukuran proporsi variansi total dalam respon Y yang diterangkan oleh model yang dicocokkan Walpole dan Myers, 1995 Nilai koefisien determinasi dapat diperoleh dengan rumus : di mana : 2.24 Universitas Sumatera Utara Nilai R 2 yang mendekati 0 nol menunjukkan bahwa data sangat tidak cocok dengan model regresi yang ada. Sebaliknya, jika nilai R 2 mendekati 1 satu menunjukkan bahwa data cocok terhadap model regresi. Dapat disimpulkan bahwa nilai R 2 yang diperoleh sesuai dengan yang dijelaskan masing-masing faktor yang tinggal di dalam regresi. Hal ini mengakibatkan bahwa yang dijelaskan hannyalah disebabkan faktor yang mempengaruhinya saja. Besarnya variansi yang dijelaskan penduga sering dinyatakan dalam persen. Persentase variansi penduga tersebut adalah

2.7 Multikolinieritas

Istilah multikolinieritas pertama kali diperkenalkan oleh Ragnar Frisch pada tahun 1934, yang menyatakan bahwa multikolinieritas terjadi jika adanya hubungan linier yang sempurna perfec t atau pasti exact diantara beberapa atau semua variabel bebas dari model regresi berganda Rahardiantoro 2008. Maksud dari adanya hubungan linier antar sesama variable adalah : Misalkan terdapat k variable bebas . Hubungan linier yang sempurnapasti terjadi jika berlaku hubungan berikut : 2.25 Dimana merupakan bilangan konstan dan tidak seluruhnya nol atau paling tidak ada satu yang tidak sama dengan nol, yaitu Jika terdapat korelasi sempurna diantara sesama variabel bebas, sehingga nilai koefisien korelasi diantara sesama variabel ini sama dengan satu, maka konsekuensinya adalah koefisien-koefisien regresi menjadi tidak dapat ditaksir, nilai standar eror setiap koefisien regresi menjadi tak hingga. Pada analisis regresi, multikolinieritas dikatakan ada apabila beberapa kondisi berikut dipenuhi : 1. Dua variable berkorelasi sempurna oleh karena itu vektor–vektor yang menggambarkan variabel tersebut adalah kolinier. Universitas Sumatera Utara 2. Dua variabel bebas hampir berkorelasi sempurna yaitu koefisien korelasinya mendekati . 3. Kombinasi linier dari beberapa variabel bebas berkorelasi sempurna atau mendekati sempurna dengan variable bebas yang lain. 4. Kombinasi linier dari satu sub-himpunan variabel bebas berkorelasi sempurna dengan suatu kombinasi linier dari sub-himpunan variabel bebas yang lain.

2.7.1 Pendeteksian Multikolinieritas

Ada beberapa cara untuk mengetahui ada tidaknya multikolinieritas, yaitu : 1. Nilai korelasi korelasi antar peubah bebas. Prosedur ini merupakan pendeteksian yang paling sederhana dan paling mudah. Jika nilai korelasi antar peubah melebihi 0,75 diduga terdapat gejala multikolinieritas. [ ] ∑ ̅ √ ̅ √ 2.26 Untuk menghasilkan 2. Faktor Variansi Inflasi Variance Inflation Factor, VIF. VIF adalah elemen-elemen diagonal utama dari invers matriks korelasi. VIF digunakan sebagai kriteria untuk mendeksi multikolinieritas pada regresi linier berganda yang melibatkan lebih dari dua variabel bebas. Nilai VIF lebih besar dari 10 mengindikasikan adanya masalah multikolinieritas yang serius. VIF untuk koefisien regresi – j didefinisikan sebagai berikut : 2.27 dengan : = Koefisien determinasi antar dengan variabel bebas lainnya j = 1, 2, …, p Universitas Sumatera Utara

2.7.2 Pengaruh Multikolinieritas

Koefisien regresi penduga ̂ yang diperoleh dengan metode kuadrat terkecil mempunyai banyak kelemahan apabila terjadi multikolinieritas diantara variabel bebas, yaitu : 1. Variansi ̂ Besar Apabila determinan dari matriks , akibatnya variansi akan semakin besar sehingga penduga kuadrat terkecil tidak efisien karena memiliki ragam dan peragam yang besar. Dalam kasus multikolinieritas penduga kuadrat tekecil tetap tak bias karena sifat ketakbiasan tidak ditentukan oleh asumsi tidak adanya multikolinieritas, hannya akibat multikolinieritas penduga memiliki ragam yang besar dan tidak dapat lagi disebut sebagai penduga yang memiliki sifat linier, tak bias, dan mempunyai varian minimum atau yang disebut BLUE best linier unbiased estimator . 2. Selang Kepercayaan Penduga Lebih Lebar Dalam situasi multikolinieritas antara variabel-variabel bebas dalam model regresi linier mengakibatkan variansi penduga kuadrat terkecil menjadi besar sehingga menghasilkan galat baku yang lebih besar, akibatnya selang kepercayaan bagi parameter model regresi menjadi lebih besar. 3. Nilai Statistik- t yang Tidak Nyata Multikolinieritas yang mengakibatkan galat baku penduga kuadrat terkecil menjadi lebih besar, maka statistik t yang didefinisikan sebagai rasio antara koefisien penduga dan galat baku koefisien penduga menjadi lebih kecil. Akibatnya meningkatkan besarnya peluang menerima hipotesis yang salah kesalahan akan meningkat , karena suatu hipotesis yang seharusnya ditolak tetapi berdasarkan pengujian hipotesis diputuskan untuk diterima, sebagai konsekuensi nilai statistik t yang tidak nyata. Universitas Sumatera Utara 4. Nilai Koefisien Determinasi R 2 yang Tinggi Tetapi Beberapa Nilai Statistik- t Tidak Nyata Dalam kasus adanya multikolinieritas, maka akan ditemukan beberapa koefisien regresi yang secara individual tidak nyata berdasarkan uji statistik t-student . Namun, koefisien determinasi R 2 dalam situasi yang demikian mungkin tinggi sekali serta berdasarkan uji koefisien regresi keseluruhan berdasarkan uji F akan ditolak hipotesis nol, bahwa

2.8 Analisis Komponen Utama

Analisis komponen utama merupakan teknik statistik yang dapat digunakan untuk mereduksi sejumlah variabel asal menjadi beberapa variabel baru yang bersifat orthogonal dan tetap mempertahankan total keragaman dari variabel asalnya. Analisis komponen utama bertujuan untuk mengubah dari sebagian besar variabel asli yang digunakan yang saling berkorelasi satu dengan yang lainnya, menjadi satu set variabel baru yang lebih kecil dan saling bebas tidak berkorelasi lagi , dan merupakan kombinasi linier dari variabel asal. Selanjutnya variabel baru ini dinamakan komponen utama principal component . secara umum tujuan dari analisis komponen utama adalah mereduksi dimensi data sehingga lebih mudah untuk menginterpretasikan data-data tersebut. Analisis komponen utama bertujuan untuk menyederhanakan variabel yang diamati dengan cara menyusutkan dimensinya. Hal ini dilakukan dengan menghilangkan korelasi variabel melalui transformasi variabel asal ke variabel baru yang tidak berkorelasi. Variabel baru disebut sebagai komponen utama yang merupakan hasil transformasi dari variable asal yang modelnya dalam bentuk catatan matriks adalah: 2.28 Universitas Sumatera Utara dengan : A adalah matriks yang melakukan transformasi terhadap variabel asal sehingga diperoleh vektor komponen . Penjabarannya adalah sebagai berikut : [ ] [ ] [ ]

2.8.1 Menentukan Komponen Utama

Komponen utama dapat ditentukan melalui matriks ragam peragam ∑ dan matriks korelasi dari . Matriks kovarian ∑ digunakan untuk membentuk komponen utama apabila semua variabel yang diamati mempunyai satuan pengukuran yang sama. Sedangkan, matriks Korelasi digunakan apabila variabel yang diamati tidak mempunyai satuan pengukuran yang sama. Variabel tersebut perlu dibakukan, sehingga komponen utama berdasarkan matriks korelasi ditentukan dari variabel baku.

2.8.1.1 Komponen Utama Berdasarkan Matriks Kovarian ∑

Dipunyai matriks kovarian ∑ dari p buah variable Total varian dari variabel –variabel tersebut didefinisikan sebagai ∑ ∑ yaitu penjumlahan dari unsur diagonal matriks ∑. Melalui matriks kovarian ∑ bisa diturunkan akar ciri- akar cirinya yaitu dan vektor ciri–vektor cirinya Komponen utama pertama dari vektor berukuran p x1, adalah kombinasi linier linier terbobot variabel asal yang dapat menerangkan keragaman terbesar. Universitas Sumatera Utara Komponen utama pertama dapat dituliskan sebagai : 2.29 dengan : dan Varian dari komponen utama pertama adalah : ∑ ∑ ∑ 2.30 Vektor pembobot adalah vektor normal, Koefisien adalah unsur-unsur dari vektor ciri yang berhubungan dengan akar ciri terbesar yang diturunkan dari matriks kovarian ∑ dipilih sedemikian sehingga mencapai maksimum dengan kendala . Menggunakan teknik pemaksimuman berkendala lagrange diperoleh persamaan : ∑ Fungsi ini mencapai maksimum jika turunan parsial pertama terhadap sama dengan nol. ∑ atau ∑ 2.31 Persamaan 2.31 dipenuhi oleh dan yang merupakan pasangan akar ciri dan vektor ciri matriks ∑ Akibatnya ∑ Oleh karena itu varian ∑ harus maksimum, maka adalah akar ciri yang terbesar dari matriks ∑ dan adalah vektor ciri yang bersesuaian dengan Komponen utama kedua adalah kombinasi linier terbobot variabel asal yang tidak berkorelasi dengan komponen utama pertama, serta memaksimumkan sisa kovarian data setelah diterangkan oleh komponen utama pertama. Komponen utama kedua dapat dituliskan sebagai : 2.32 Universitas Sumatera Utara dengan : dan Vektor pembobot adalah vektor normal yang dipilih sehingga keragaman komponen utama kedua maksimum, serta orthogonal terhadap vektor pembobot dari komponen utama pertama. Agar varian dari komponen utama kedua maksimum, serta antara komponen utama kedua tidak berkorelasi dengan komponen utama pertama, maka vektor pembobot dipilih sedemikian sehingga tidak berkorelasi dengan varian komponen utama kedua adalah : ∑ ∑ ∑ 2.33 Varian tersebut akan dimaksimumkan dengan kendala dan cov ∑ Karena adalah vektor ciri dari ∑ dan ∑ adalah matriks simetrik, maka : ∑ ∑ ∑ Kendala ∑ dapat dituliskan sebagai Jadi fungsi Lagrange yang dimaksimumkan adalah : ∑ 2.34 Fungsi ini mencapai maksimum jika turunan parsial pertama terhadap sama dengan nol, diperoleh ∑ ∑ 2.35 Jika persamaan 2.35 dikalikan dengan maka diperoleh ∑ ∑ ∑ ∑ ∑ Oleh karena ∑ maka Dengan demikian persamaan 2.35 setelah diturunkan terhadap menjadi Universitas Sumatera Utara ∑ ∑ 2.36 Jadi dan merupakan pasangan akar ciri dan vektor ciri dari matriks varian kovarian ∑ Seperti halnya penurunan pada pencarian , akan diperoleh bahwa adalah vektor ciri yang bersesuaian dengan akar ciri terbesar kedua dari matriks ∑ Secara umum komponen utama ke- j dapat dituliskan sebagai : 2.37 dengan : dan vektor pembobot diperoleh dengan memaksimumkan keragaman komponen utama ke- j , yaitu : ∑ 2.38 dengan kendala : serta untuk . Dengan kendala ini, maka akar ciri dapat diinterpretasikan sebagai ragam komponen utama ke- j serta sesama komponen utama tidak berkorelasi. Vektor pembobot yang merupakan koefisien pembobot variabel asal bagi komponen utama ke- j diperoleh dari matriks peragam ∑ yang diduga dengan matriks S berikut : ∑ ̅ ̅ 2.39 Universitas Sumatera Utara

2.8.1.2 Komponen Utama Berdasarkan Matriks Korelasi

Jika variabel yang diamati tidak mempunyai satuan pengukuran yang sama, maka variabel tersebut perlu dibakukan sehingga komponen utama ditentukan dari variabel baku Vincent gasperz, 1991. Variabel asal perlu ditransformasi ke dalam variabel baku Z , dalam catatan matriks adalah : 2.40 dengan : Z = variabel baku = matriks simpangan baku dengan unsur diagonal utama = variabel pengamatan = nilai rata-rata pengamatan Dengan, Nilai harapan , dan ragamnya ∑ Dengan demikian, komponen –komponen utama dari Z dapat ditentukan dari vektor ciri yang diperoleh melalui matriks korelasi yang diduga dengan matriks , dimana vektor pembobot diperoleh dengan memaksimumkan keragaman komponen utama ke- j dengan kendala : serta untuk . Semua formula yang telah diturunkan berdasarkan variabel-variabel dengan matriks ∑ akan berlaku untuk peubah-peubah dengan matriks Sehingga diperoleh komponen utama ke- j dengan menggunakan variable baku yaitu : 2.41 dengan : = komponen utama ke- j = vektor ciri ke- j Z = variabel baku Universitas Sumatera Utara Ragam komponen utama ke- j adalah sama dengan akar ciri ke- j , serta antara komponen utama ke- i dan komponen utama ke- j tidak berkorelasi untuk . Untuk meregresikan komponen utama dengan variabel bebas, maka perlu dihitung skor komponen dari setiap pengamatan. Untuk komponen utama yang diturunkan dari matriks korelasi , maka skor komponen utama dari unit pengamatan ke- i ditentukan sebagai berikut : 2.42 dengan : = vektor pembobot komponen utama ke- r = vektor skor baku dari variabel yang diamati pada pengamatan ke- i

2.8.2 Kriteria Pemilihan Komponen Utama

Salah satu tujuan dari analisis komponen utama adalah mereduksi dimensi data asal yang semula, terdapat p variable bebas menjadi k komponen utama . Kriteria pemilihan k yaitu : 1. Didasarkan pada akar ciri yang lebih besar dari satu, dengan kata lain hannya komponen utama yang memiliki akar ciri lebih besar dari satu yang dilibatkan dalam analisis regresi komponen utama. 2. Proporsi kumulatif keragaman data asal yang dijelaskan oleh k komponen utama minimal 80, dan proporsi total variansi populasi bernilai cukup besar. Universitas Sumatera Utara

2.8.3 Kontribusi Komponen Utama

Kontribusi komponen utama yang diturunkan dari matriks kovarian dan matriks korelasi adalah sebagai berikut: Proporsi total variansi populasi yang dijelaskan oleh komponen utama ke- j berdasarkan matriks kovarian adalah : ∑ dengan 2.43 Jadi kontribusi dalam persentase masing –masing komponen utama ke- j terhadap total varian x adalah : ∑ x 100 2.44 Sedangkan, proporsi total variansi populasi yang dijelaskan oleh komponen utama ke- j berdasarkan matriks korelasi, yaitu komponen yang dihasilkan berdasarkan variable-variabel yang telah dibakukan Z adalah : 2.45 dengan : = Akar ciri terbesar ke- j dari matriks korelasi R = Trace matriks R yang merupakan jumlah diagonal utama matriks R , yang tidak lain sama dengan banyaknya variabel yang diamati, atau sama dengan jumlah semua akar ciri yang diperoleh dari matriks R . Jadi kontribusi dalam persentase masing –masing komponen utama ke- j terhadap total varian x adalah : ∑ x 100 2.46 Universitas Sumatera Utara Bab 3 PEMBAHASAN

3.1 Regresi Komponen Utama

Regresi komponen utama adalah teknik yang digunakan untuk meregresikan komponen utama dengan variabel tak bebas melalui metode kuadrat terkecil. Tahap pertama pada prosedur regresi komponen utama yaitu menentukan komponen utama yang merupakan kombinasi linier dari beberapa variabel X , dan tahap kedua adalah variabel tak bebas diregresikan pada komponen utama dalam sebuah model regresi linier. Persamaan regresi komponen utama berdasarkan matriks kovarian pada dasarnya hampir sama dengan persamaan regresi komponen utama berdasarkan matriks korelasi yaitu variabel diganti dengan variabel baku . Kedua persamaan tersebut digunakan sesuai dengan pengukuran variabel-variabel yang diamati. Apabila diberikan notasi sebagai banyaknya komponen utama yang dilibatkan dalam analisis regresi komponen utama, di mana k lebih kecil daripada banyaknya variabel penjelas asli X , yaitu sejumlah p Maka Bentuk umum persamaan regresi komponen utama adalah : 3.1 dengan : = variabel tak bebas = variabel komponen utama = parameter model regresi komponen utama Universitas Sumatera Utara Komponen utama merupakan kombinasi linier dari variabel Z ; 3.2 dengan : = komponen utama = koefisien komponen utama = variabel baku Komponen utama dalam persamaan 3.2 disubstitusikan ke dalam persamaan regresi komponen utama 3.1, maka diperoleh : ̂ 3.3 dengan : = ̅ = 3.4

3.2 Uji Koefisien Regresi Komponen Utama