Analisis Regresi Komponen Utama Principal Component Analysis

41 variabel pejelas X. Apabila tidak ada pola yang sistematis maka dapat dikatakan sifat homoskedastisitas terpenuhi Gujarati 2006a; 2006b. Asumsi OLS lainnya adalah tidak terdapat masalah multikolinearitas. Multikolinearitas merupakan hubungan linear sempurna atau hampir sempurna di antara variabel-variabel penjelas dalam suatu model regresi, sehingga tidak dapat menarik kesimpulan apapun dari model yang diperoleh. Indikasinya adanya multikolinearitas adalah dengan melihat koefisien determinasi R 2 yang tinggi, namun dari uji-t banyak variabel bebas yang tidak siginifikan Gujarati 2006b. Cara lain untuk mengidentifikasinya dengan melihat nilai Variance Inflation Factor VIF setiap variabel bebas dari output software. Sebuah model dinyatakan terbebas dari masalah multikolinearitas apabila memiliki nilai VIF di bawah 10 Lind et al. 2007. Terdapat kelemahan pada fungsi produksi Cobb-Douglas yang melibatkan metode OLS, yaitu gejala multikolinearitas Soekartawi 2002. Menurut Gujarati 2006b untuk mengatasai masalah multikolinieritas adalah mengeluarkan variabel dari model, menambah data pengamatan atau contoh baru, ataupun melakukan transformasi variabel yang mempunyai kolinearitas, lalu menggabungkan menjadi variabel yang lebih berarti. Namun, jika hal tersebut sulit dilakukan, cara lain yang dapat dilakukan adalah menggunakan metode pendugaan lain. Salah satunya dengan analisis regresi komponen utama principal component regression analysis.

4.3.4. Analisis Regresi Komponen Utama Principal Component Analysis

Regression Analisis regresi komponen utama principal component analysis regression merupakan kombinasi antara analisis regresi dengan analisis komponen utama. Pada prinsipnya, analisis komponen utama bertujuan untuk mengurangi dimensi dari kumpulan data yang saling berkorelasi, sementara kumpulan data tersebut masih tetap dipertahankan. Hal ini dicapai dengan mentransformasikan variabel-variabel bebas yang berkorelasi menjadi variabel- variabel baru yang ortogonal dan tidak saling berkorelasi Jollife 1986. Analisis regresi komponen utama merupakan analisis regresi dari variabel terikat Ln Y terhadap komponen-komponen utama W yang tidak berkorelasi, 42 dimana setiap komponen utama merupakan kombinasi linear dari semua variabel bebas yang telah dibakukan Z Gasper 1995 diacu dalam Rizal 2001. Dimana semua variabel dalam penelitian ini sudah ditransformasi ke dalam bentuk logaritma natural Ln, yang selanjutnya akan digunakan juga pada regresi komponen utama. Model komponen utama dapat dituliskan sebagai berikut: Ln Y = b o + b 1 W 1 + b 2 W 2 + … + b m W m + ε i Dimana: b , b 1 , b 2 , …, b m = koefisien regresi ε i = komponen sisaan W 1 , W 2 , …, W m = kombinasi linear variabel-variabel asal X yang telah dibakukan menjadi variabel baku Z Menurut Morrison 1978 yang diacu dalam Rizal 2001 pembakuan ke dalam variabel baku Z dilakukan jika variabel asal memiliki satuan yang berbeda, dengan rumus: Z = ̅ , i = 1,2, …, p dan σ ij = S ij Pembakuan yang dimaksud adalah dengan mengurangkan setiap variabel bebas asal ke-i X i dengan rata-rata ̅̅̅ dan dibagi dengan simpangan baku Si. Selanjutnya matriks baku Z ditransformasikan menjadi matriks skor komponen utama SK dengan SK = ZA, dimana A adalah matriks yang kolom-kolomnya merupakan vektor ciri darri matriks Z’Z. Sehingga, komponen utama ke-j W j dapat dinyatakan dalam bentuk persamaan Draper dan Smith 1992: W j = γ ij Z 1 + γ 2j Z 2 + γ 3j Z 3 + …. + γ nj Z n Prosedur ini menciptakan peubah-peubah baru W j dari peubah-peubah asal Z j melalui tranformasi sehingga vektor-vektor W saling ortogonal sesamanya. Vektor ciri γ j diperoleh dari setiap akar ciri yang memenuhi suatu sistem persamaan homogen Z’Z – λ j I γ j = 0, dimana: γ j = γ 1j , γ 2j , γ 3j , …, γ nj yang dipilih dari sekian banyak solusi yang ada untuk setiap j sehingga γ j ’γ j = 1. Peubah W j dengan nilai akar ciri atau eigenvalue λ j terbesar disebut komponen utama pertama. Komponen ini menjelaskan bagian terbesar dari keragaman yang dikandung oleh gugusan data yang telah dibakukan. Besarnya keragaman atau varians dari setiap faktor yang mewakili variabel yang dianalisis ditunjukan oleh akar ciri eigenvalue. Komponen-komponen W j yang lain menjelaskan proporsi keragaman yang semakin lam semakin kecil secara beurutan sampai semua data terjelaskan atau sama dengan: 43 ∑ Tidak semua komponen utama W dapat digunakan. Komponen utama yang dapat digunakan adalah komponen yang memiliki nilai akar ciri eigenvalue lebih dari satu, karena jika akar ciri kurang dari satu, keragaman data yang dapat dijelaskan kecil sekali Soemartini 2008. Selain itu, menurut Morrison 1976 yang diacu dalam Draper dan Smith 1992 komponen-komponen dapat dihitung melalui presentase keragaman kumulatif, dianggap cukup mewakili total keragaman data jika telah mencapai 75 persen atau lebih. Selanjutnya, nilai-nilai komponen utama W j dapat dihitung dengan memasukkan nilai-nilai Z n untuk setiap pengamatan. Pendugaan koefisien regresi dapat dilakukan dengan rumus: Z i = ̅ , Mean ̅ = , Standar Deviasi Si = √ ̅ Setelah variabel baku Z ditransformasikan kembali ke dalam variabel asli Ln X, maka dapat dibentuk persamaan regresi variabel terikat Ln Y dengan variabel asli Ln X, dapat dituliskan: Ln Y = ß o + ß 1 Ln X 1 + ß 2 Ln X 2 + ß 3 Ln X 3 + ß 4 Ln X 4 + ß 5 Ln X 5 + ß 6 Ln X 6 + ß 7 Ln X 7 + ε Selanjutnya dilakukan uji signifikansi koefisien regresi parsial komponen utama dengan uji-t, untuk mengetahui variabel bebas faktor produksi apa saja yang signifikan dan berpengaruh terhadap variabel terikat produksi.

4.4. Definisi Operasional