52
4.2.5.3. Uji Multikolinearitas
Untuk menguji ada tidaknya multikolinearitas, akan digunakan nilai toleransi dan VIF. Dengan menggunakan bantuan SPSS 16.0,
dapat diperoleh nilai Toleransi dan VIF untuk data sampel di atas pada tabel
Coefficients
a
lampiran 2. Berdasarkan tabel
Coefficients
a
lampiran 2 untuk sampel ke-2, terlihat bahwa semua nilai VIF melebihi 10 dan semua nilai toleransi
kurang dari 0,1. Maka dapat disimpulkan bahwa terdapat multikolinearitas pada data.
4.2.5.3. Mengatasi Masalah Multikolinearitas dengan Menggunakan
Metode Principal Component Analysis PCA
Selanjutnya dilakukan proses untuk menghilangkan adanya multikolinearitas. Metode pertama yang digunakan adalah dengan
metode PCA. Langkah-langkahnya sebagai berikut:
1. KMO dan Barlett Test
Dari lampiran 3 untuk sampel ke-2 pada tabel
KMO and Bartletts Test
menunjukkan bahwa nilai KMO = 0,744 berada pada 0,5 dan 1, maka analisis faktor layak digunakan.
Sedangkan Barlett Test digunakan untuk menguji apakah benar variabel-variabel yang dilibatkan berkorelasi.
Hipotesis: = tidak ada korelasi antar variabel bebas
= ada korelasi antar variabel bebas
53
Kriteria uji dengan melihat ρ-value signifikansi. Terima jika Sig.
0,05. Dari lampiran 3 untuk sampel ke-2 pada tabel
KMO and Bartletts Test
menunjukkan bahwa nilai chi-square = 36,774 dengan
derajat kebebasan 3, dan ρ-value 0,000 0,05, maka ditolak.
Artinya terdapat korelasi antar variabel bebas.
2. Anti Image Matriks MSA
Berdasarkan kriteria angka MSA, pada tabel
Anti-image Matrices
lampiran 3 untuk sampel ke-2 terlihat bahwa semua angka MSA memiliki nilai di atas 0,5. Artinya analisis dapat dilanjutkan.
3. Communalities
Dari lampiran 3 untuk sampel ke-2 pada tabel
Communalities
terlihat bahwa untuk variabel , diperoleh nilai sebesar 0,996 =
99,6. Hal ini berarti 99,6 variabel dapat dijelaskan oleh faktor
yang terbentuk. Demikian juga untuk variabel dan
.
4. Total Variance Explained
Dari lampiran 3 untuk sampel ke-2 pada tabel
Total Variance Explained
terlihat bahwa angka eigenvalues di bawah 1 tidak dapat digunakan dalam menghitung jumlah faktor yang terbentuk, sehingga
proses factoring seharusnya berhenti pada pada satu faktor saja. Faktor satu memiliki eigenvalues sebesar 2,981, artinya faktor
satu ini dapat menjelaskan 2,981 atau 99,375 dari total Communalitie.
54
5. Component Matriks dan Component Score Coefficiens Matriks
Berdasarkan tabel
Component Matrix
a
lampiran 3 untuk sampel ke-2, terlihat bahwa hanya satu faktor yang terbentuk dari ketiga
variabel. Hal tersebut berarti bahwa satu faktor adalah jumlah yang paling optimal untuk mereduksi ketiga variabel bebas tersebut.
Dengan menggunakan tabel
Component Score Coefficient Matrix
lampiran 3 untuk sampel ke-2, diperoleh persamaan untuk faktor baru yang terbentuk adalah sebagai berikut:
.
Skor-skor faktor yang dihasilkan dapat digunakan untuk menggantikan skor-skor pada variabel bebas
yang asli. Setelah komponen hasil PCA yang bebas multikolinearitas diperoleh maka komponen-komponen tersebut diregresikan atau
dianalisis pengaruhnya terhadap variabel tak bebas dengan
menggunakan analisis regresi linear.
Model Regresi yang Ideal
Setelah didapatkan variabel bebas baru yang bebas
multikolinearitas melalui teknik PCA, maka langkah berikutnya adalah meregresikan variabel bebas yang baru
terhadap variabel tak bebas
. Karena variabel bebas baru yang terbentuk hanya satu,
maka pada model tersebut digunakan analisis regresi linear sederhana sebagai berikut:
Dimana:
55
Berdasarkan tabel
Coefficients
a
lampiran 4 untuk sampel ke-2, diperoleh model regresi sebagai berikut:
.
4.2.5.3. Mengatasi Masalah Multikolinearitas dengan Menggunakan
Metode Regresi Ridge
Langkah-langkahnya sebagai berikut: Berdasarkan variabel-variabel yang digunakan dalam data
diperoleh model regresi . Variabel
penjelas ditransformasikan ke dalam bentuk baku sesuai
dengan persamaan 12. , dengan
. Dari data pada lampiran 5 sesuai dengan persamaan 2.8 diperoleh:
Sehingga berdasarkan data pada lampiran 5 dengan menggunakan persamaan 2.8 diperoleh nilai variabel penjelas dalam bentuk baku
yang terangkum pada lampiran 6. Berdasarkan data pada lampiran 6 diperoleh:
56
Dengan menggunakan persamaan 2.12 diperoleh matriks koefisien korelasi .
Invers dari matrik adalah
Model regresi linear berganda untuk data yang dibakukan pada lampiran 3 yang sesuai dengan persamaan 2.18 adalah
diperoleh
57
Untuk mendapatkan taksiran koefisien regresi ridge maka harus dicari konstanta yang tepat sedemikian hingga persamaan 2.18
mempunyai solusi yang stabil.untuk memperoleh nilai konstanta yang sesuai maka digunakan metode iterasi.
Jika digunakan metode kuadrat terkecil sesuai dengan persaman 2.7 diperoleh
Dengan dan
. Sesuai dengan persamaan 3.1
58
Dan Sehingga prosedur iterasinya adalah
Iterasi ke-1 Diambil
Sehingga diperoleh
Sesuai dengan persamaan 3.1 diperoleh
Karena maka iterasi dilanjutkan.
Iterasi ke-2 Diambil
59
Sehingga diperoleh
Sesuai dengan persamaan 3.1 diperoleh
Karena maka iterasi dilanjutkan.
Iterasi ke-3 Diambil
60
Sehingga diperoleh
Sesuai dengan persamaan 3.1 diperoleh
Karena maka iterasi dihentikan.
Selanjutnya digunakan nilai dan
sebagai hasil akhir iterasi. Elemen-elemen dari maks
merupakan koefisien regresi ridge sehingga diperoleh:
Jadi diperoleh model regresi linear berganda untuk data dalam bentuk baku sebagai berikut:
Jika variabel dikembalikan ke dalam bentuk variabel asli
dengan mensubstitusikan persamaan 2.8 maka
Sehingga diperoleh
61
Diperoleh model regresi linear berganda untuk variabel bebas .
. 4.2.2.
Simulasi Sampel Ke-3:
Langkah-langkah untuk menyelesaikannya adalah sebagai berikut:
4.2.5.3. Uji Multikolinearitas