Uji Multikolinearitas Mengatasi Masalah Multikolinearitas dengan

43 Dari data lampiran 1, akan dilakukan simulasi terhadap lima data, dan akan dibentuk model regresi pengganti , , terhadap yaitu sebagai berikut: Berdasarkan data diatas akan dilakukan pengecekan apakah mengandung multikolinearitas atau tidak, sekaligus cara penanggulangannya jika terjadi multikolinearitas sehingga diperoleh model regresi yang cocok untuk menggambarkan data pada lampiran 1.

4.2. Simulasi Data Sampel :

4.2.1. Simulasi Sampel Ke-1:

Langkah-langkah untuk menyelesaikannya adalah sebagai berikut:

4.2.1.1. Uji Multikolinearitas

Untuk menguji ada tidaknya multikolinearitas, akan digunakan nilai toleransi dan VIF. Dengan menggunakan bantuan SPSS 16.0, dapat diperoleh nilai Toleransi dan VIF untuk data sampel di atas pada tabel Coefficients a lampiran 2. Berdasarkan tabel Coefficients a lampiran 2 untuk data sampel ke-1, terlihat bahwa nilai VIF 12,297 yang melebihi 10 dan nilai toleransi 0,81 kurang dari 0,1. Maka dapat disimpulkan bahwa terdapat multikolinearitas pada data. 44

4.2.1.2. Mengatasi Masalah Multikolinearitas dengan

Menggunakan Metode Principal Component Analysis PCA Selanjutnya dilakukan proses untuk menghilangkan adanya multikolinearitas. Metode pertama yang digunakan adalah dengan metode PCA. Langkah-langkahnya sebagai berikut:

1. KMO dan Barlett Test

Dari lampiran 3 sampel ke-1 pada tabel KMO and Bartletts Test menunjukkan bahwa nilai KMO = 0,666 berada pada 0,5 dan 1, maka analisis faktor layak digunakan. Sedangkan Barlett Test digunakan untuk menguji apakah benar variabel-variabel yang dilibatkan berkorelasi. Hipotesis: = tidak ada korelasi antar variabel bebas = ada korelasi antar variabel bebas Kriteria uji dengan melihat ρ-value signifikansi. Terima jika Sig. 0,05. Dari lampiran 3 sampel ke-1 pada tabel KMO and Bartletts Test menunjukkan bahwa nilai chi-square = 36,774 dengan derajat kebebasan 3, dan ρ-value 0,000 0,05, maka ditolak. Artinya terdapat korelasi antar variabel bebas. 45

2. Anti Image Matriks MSA

Berdasarkan kriteria angka MSA, pada tabel Anti-image Matrices lampiran 3 untuk sampel ke-1 terlihat bahwa semua angka MSA memiliki nilai di atas 0,5. Artinya analisis dapat dilanjutkan.

3. Communalities

Dari lampiran 3 untuk sampel ke-1 pada tabel Communalities terlihat bahwa untuk variabel , diperoleh nilai sebesar 0,954 = 95,4. Hal ini berarti 95,4 variabel dapat dijelaskan oleh faktor yang terbentuk. Demikian juga untuk variabel dan .

4. Total Variance Explained

Dari lampiran 3 untuk sampel ke-1 pada tabel Total Variance Explained terlihat bahwa angka eigenvalues di bawah 1 tidak dapat digunakan dalam menghitung jumlah faktor yang terbentuk, sehingga proses factoring seharusnya berhenti pada pada satu faktor saja. Faktor satu memiliki eigenvalues sebesar 2,664, artinya faktor satu ini dapat menjelaskan 2,664 atau 88,787 dari total Communalitie.

5. Component Matriks dan Component Score Coefficiens

Matriks Berdasarkan tabel Component Matrixa lampiran 3 untuk sampel ke-1 terlihat bahwa hanya satu faktor yang terbentuk 46 dari ketiga variabel. Hal tersebut berarti bahwa satu faktor adalah jumlah yang paling optimal untuk mereduksi ketiga variabel bebas tersebut. Dengan menggunakan tabel Component Score Coefficient Matrix lampiran 3 untuk sampel ke-1, diperoleh persamaan untuk faktor baru yang terbentuk adalah sebagai berikut: . Skor-skor faktor yang dihasilkan dapat digunakan untuk menggantikan skor-skor pada variabel bebas yang asli. Setelah komponen hasil PCA yang bebas multikolinearitas diperoleh maka komponen- komponen tersebut diregresikan atau dianalisis pengaruhnya terhadap variabel tak bebas dengan menggunakan analisis regresi linear.

6. Model

Regresi yang Ideal Setelah didapatkan variabel bebas baru yang bebas multikolinearitas melalui teknik PCA, maka langkah berikutnya adalah meregresikan variabel bebas yang baru terhadap variabel tak bebas . Karena variabel bebas baru yang terbentuk hanya satu, maka pada model tersebut digunakan analisis regresi linear sederhana sebagai berikut: Dimana: 47 Berdasarkan tabel Coefficients a lampiran 4, diperoleh model regresi sebagai berikut:

4.2.1.3. Mengatasi Masalah Multikolinearitas dengan

Menggunakan Metode Regresi Ridge Langkah-langkahnya sebagai berikut: Berdasarkan variabel-variabel yang digunakan dalam data diperoleh model regresi . Variabel penjelas ditransformasikan ke dalam bentuk baku sesuai dengan persamaan 12. , dengan . Dari data pada lampiran 5 sesuai dengan persamaan 2.8 diperoleh: Sehingga berdasarkan data pada lampiran 5 dengan menggunakan persamaan 2.8 diperoleh nilai variabel penjelas dalam bentuk baku yang terangkum pada lampiran 6. Berdasarkan data pada lampiran 6 diperoleh: 48 Dengan menggunakan persamaan 2.12 diperoleh matriks koefisien korelasi . Invers dari matrik adalah Model regresi linear berganda untuk data yang dibakukan pada lampiran 6 yang sesuai dengan persamaan 2.18 adalah diperoleh 49 Untuk mendapatkan taksiran koefisien regresi ridge maka harus dicari konstanta yang tepat sedemikian hingga persamaan 2.18 mempunyai solusi yang stabil.untuk memperoleh nilai konstanta yang sesuai maka digunakan metode iterasi. Jika digunakan metode kuadrat terkecil sesuai dengan persaman 2.7 diperoleh Dengan dan . Sesuai dengan persamaan 3.1 Dan Sehingga prosedur iterasinya adalah Iterasi 1 50 Diambil Sehingga diperoleh Sesuai dengan persamaan 3.1 diperoleh Karena maka iterasi dihentikan. Selanjutnya digunakan nilai dan sebagai hasil akhir iterasi. Elemen-elemen dari maks merupakan koefisien regresi ridge sehingga diperoleh: 51 Jadi diperoleh model regresi linear berganda untuk data dalam bentuk baku sebagai berikut: Jika variabel dikembalikan ke dalam bentuk variabel asli dengan mensubstitusikan persamaan 2.8 maka Sehingga diperoleh Diperoleh model regresi linear berganda untuk variabel bebas . . 4.2.1. Simulasi Sampel Ke-2: Langkah-langkah untuk menyelesaikannya adalah sebagai berikut: 52

4.2.5.3. Uji Multikolinearitas