Uji Multikolinearitas Mengatasi Masalah Multikolinearitas dengan Menggunakan

52

4.2.5.3. Uji Multikolinearitas

Untuk menguji ada tidaknya multikolinearitas, akan digunakan nilai toleransi dan VIF. Dengan menggunakan bantuan SPSS 16.0, dapat diperoleh nilai Toleransi dan VIF untuk data sampel di atas pada tabel Coefficients a lampiran 2. Berdasarkan tabel Coefficients a lampiran 2 untuk sampel ke-2, terlihat bahwa semua nilai VIF melebihi 10 dan semua nilai toleransi kurang dari 0,1. Maka dapat disimpulkan bahwa terdapat multikolinearitas pada data.

4.2.5.3. Mengatasi Masalah Multikolinearitas dengan Menggunakan

Metode Principal Component Analysis PCA Selanjutnya dilakukan proses untuk menghilangkan adanya multikolinearitas. Metode pertama yang digunakan adalah dengan metode PCA. Langkah-langkahnya sebagai berikut:

1. KMO dan Barlett Test

Dari lampiran 3 untuk sampel ke-2 pada tabel KMO and Bartletts Test menunjukkan bahwa nilai KMO = 0,744 berada pada 0,5 dan 1, maka analisis faktor layak digunakan. Sedangkan Barlett Test digunakan untuk menguji apakah benar variabel-variabel yang dilibatkan berkorelasi. Hipotesis: = tidak ada korelasi antar variabel bebas = ada korelasi antar variabel bebas 53 Kriteria uji dengan melihat ρ-value signifikansi. Terima jika Sig. 0,05. Dari lampiran 3 untuk sampel ke-2 pada tabel KMO and Bartletts Test menunjukkan bahwa nilai chi-square = 36,774 dengan derajat kebebasan 3, dan ρ-value 0,000 0,05, maka ditolak. Artinya terdapat korelasi antar variabel bebas.

2. Anti Image Matriks MSA

Berdasarkan kriteria angka MSA, pada tabel Anti-image Matrices lampiran 3 untuk sampel ke-2 terlihat bahwa semua angka MSA memiliki nilai di atas 0,5. Artinya analisis dapat dilanjutkan.

3. Communalities

Dari lampiran 3 untuk sampel ke-2 pada tabel Communalities terlihat bahwa untuk variabel , diperoleh nilai sebesar 0,996 = 99,6. Hal ini berarti 99,6 variabel dapat dijelaskan oleh faktor yang terbentuk. Demikian juga untuk variabel dan .

4. Total Variance Explained

Dari lampiran 3 untuk sampel ke-2 pada tabel Total Variance Explained terlihat bahwa angka eigenvalues di bawah 1 tidak dapat digunakan dalam menghitung jumlah faktor yang terbentuk, sehingga proses factoring seharusnya berhenti pada pada satu faktor saja. Faktor satu memiliki eigenvalues sebesar 2,981, artinya faktor satu ini dapat menjelaskan 2,981 atau 99,375 dari total Communalitie. 54

5. Component Matriks dan Component Score Coefficiens Matriks

Berdasarkan tabel Component Matrix a lampiran 3 untuk sampel ke-2, terlihat bahwa hanya satu faktor yang terbentuk dari ketiga variabel. Hal tersebut berarti bahwa satu faktor adalah jumlah yang paling optimal untuk mereduksi ketiga variabel bebas tersebut. Dengan menggunakan tabel Component Score Coefficient Matrix lampiran 3 untuk sampel ke-2, diperoleh persamaan untuk faktor baru yang terbentuk adalah sebagai berikut: . Skor-skor faktor yang dihasilkan dapat digunakan untuk menggantikan skor-skor pada variabel bebas yang asli. Setelah komponen hasil PCA yang bebas multikolinearitas diperoleh maka komponen-komponen tersebut diregresikan atau dianalisis pengaruhnya terhadap variabel tak bebas dengan menggunakan analisis regresi linear. Model Regresi yang Ideal Setelah didapatkan variabel bebas baru yang bebas multikolinearitas melalui teknik PCA, maka langkah berikutnya adalah meregresikan variabel bebas yang baru terhadap variabel tak bebas . Karena variabel bebas baru yang terbentuk hanya satu, maka pada model tersebut digunakan analisis regresi linear sederhana sebagai berikut: Dimana: 55 Berdasarkan tabel Coefficients a lampiran 4 untuk sampel ke-2, diperoleh model regresi sebagai berikut: .

4.2.5.3. Mengatasi Masalah Multikolinearitas dengan Menggunakan

Metode Regresi Ridge Langkah-langkahnya sebagai berikut: Berdasarkan variabel-variabel yang digunakan dalam data diperoleh model regresi . Variabel penjelas ditransformasikan ke dalam bentuk baku sesuai dengan persamaan 12. , dengan . Dari data pada lampiran 5 sesuai dengan persamaan 2.8 diperoleh: Sehingga berdasarkan data pada lampiran 5 dengan menggunakan persamaan 2.8 diperoleh nilai variabel penjelas dalam bentuk baku yang terangkum pada lampiran 6. Berdasarkan data pada lampiran 6 diperoleh: 56 Dengan menggunakan persamaan 2.12 diperoleh matriks koefisien korelasi . Invers dari matrik adalah Model regresi linear berganda untuk data yang dibakukan pada lampiran 3 yang sesuai dengan persamaan 2.18 adalah diperoleh 57 Untuk mendapatkan taksiran koefisien regresi ridge maka harus dicari konstanta yang tepat sedemikian hingga persamaan 2.18 mempunyai solusi yang stabil.untuk memperoleh nilai konstanta yang sesuai maka digunakan metode iterasi. Jika digunakan metode kuadrat terkecil sesuai dengan persaman 2.7 diperoleh Dengan dan . Sesuai dengan persamaan 3.1 58 Dan Sehingga prosedur iterasinya adalah Iterasi ke-1 Diambil Sehingga diperoleh Sesuai dengan persamaan 3.1 diperoleh Karena maka iterasi dilanjutkan. Iterasi ke-2 Diambil 59 Sehingga diperoleh Sesuai dengan persamaan 3.1 diperoleh Karena maka iterasi dilanjutkan. Iterasi ke-3 Diambil 60 Sehingga diperoleh Sesuai dengan persamaan 3.1 diperoleh Karena maka iterasi dihentikan. Selanjutnya digunakan nilai dan sebagai hasil akhir iterasi. Elemen-elemen dari maks merupakan koefisien regresi ridge sehingga diperoleh: Jadi diperoleh model regresi linear berganda untuk data dalam bentuk baku sebagai berikut: Jika variabel dikembalikan ke dalam bentuk variabel asli dengan mensubstitusikan persamaan 2.8 maka Sehingga diperoleh 61 Diperoleh model regresi linear berganda untuk variabel bebas . . 4.2.2. Simulasi Sampel Ke-3: Langkah-langkah untuk menyelesaikannya adalah sebagai berikut:

4.2.5.3. Uji Multikolinearitas