43
Dari data lampiran 1, akan dilakukan simulasi terhadap lima data, dan akan dibentuk model regresi pengganti
, ,
terhadap yaitu sebagai berikut:
Berdasarkan data diatas akan dilakukan pengecekan apakah mengandung multikolinearitas atau tidak, sekaligus cara penanggulangannya jika terjadi
multikolinearitas sehingga diperoleh model regresi yang cocok untuk menggambarkan data pada lampiran 1.
4.2. Simulasi Data Sampel :
4.2.1. Simulasi Sampel Ke-1:
Langkah-langkah untuk menyelesaikannya adalah sebagai berikut:
4.2.1.1. Uji Multikolinearitas
Untuk menguji ada tidaknya multikolinearitas, akan digunakan nilai toleransi dan VIF. Dengan menggunakan
bantuan SPSS 16.0, dapat diperoleh nilai Toleransi dan VIF untuk data sampel di atas pada tabel
Coefficients
a
lampiran 2. Berdasarkan tabel
Coefficients
a
lampiran 2 untuk data sampel ke-1, terlihat bahwa nilai VIF 12,297 yang
melebihi 10 dan nilai toleransi 0,81 kurang dari 0,1. Maka dapat disimpulkan bahwa terdapat multikolinearitas pada
data.
44
4.2.1.2. Mengatasi Masalah Multikolinearitas dengan
Menggunakan Metode Principal Component Analysis
PCA
Selanjutnya dilakukan proses untuk menghilangkan adanya multikolinearitas. Metode pertama yang digunakan
adalah dengan metode PCA. Langkah-langkahnya sebagai berikut:
1. KMO dan Barlett Test
Dari lampiran 3 sampel ke-1 pada tabel
KMO and Bartletts Test
menunjukkan bahwa nilai KMO = 0,666 berada pada 0,5 dan 1, maka analisis faktor layak digunakan.
Sedangkan Barlett Test digunakan untuk menguji apakah benar variabel-variabel yang dilibatkan berkorelasi.
Hipotesis: = tidak ada korelasi antar variabel bebas
= ada korelasi antar variabel bebas Kriteria uji dengan melihat
ρ-value signifikansi. Terima jika Sig. 0,05. Dari lampiran 3 sampel ke-1 pada tabel
KMO and Bartletts Test
menunjukkan bahwa nilai chi-square = 36,774
dengan derajat kebebasan 3, dan ρ-value 0,000
0,05, maka ditolak. Artinya terdapat korelasi antar
variabel bebas.
45
2. Anti Image Matriks MSA
Berdasarkan kriteria angka MSA, pada tabel
Anti-image Matrices
lampiran 3 untuk sampel ke-1 terlihat bahwa semua angka MSA memiliki nilai di atas 0,5. Artinya analisis dapat
dilanjutkan.
3. Communalities
Dari lampiran 3 untuk sampel ke-1 pada tabel
Communalities
terlihat bahwa untuk variabel , diperoleh nilai sebesar
0,954 = 95,4. Hal ini berarti 95,4 variabel dapat
dijelaskan oleh faktor yang terbentuk. Demikian juga untuk variabel
dan .
4. Total Variance Explained
Dari lampiran 3 untuk sampel ke-1 pada tabel
Total Variance Explained
terlihat bahwa angka eigenvalues di bawah 1 tidak dapat digunakan dalam menghitung jumlah faktor yang
terbentuk, sehingga proses factoring seharusnya berhenti pada pada satu faktor saja.
Faktor satu memiliki eigenvalues sebesar 2,664, artinya faktor satu ini dapat menjelaskan 2,664 atau 88,787 dari
total Communalitie.
5. Component Matriks dan Component Score Coefficiens
Matriks
Berdasarkan tabel
Component Matrixa
lampiran 3 untuk sampel ke-1 terlihat bahwa hanya satu faktor yang terbentuk
46
dari ketiga variabel. Hal tersebut berarti bahwa satu faktor adalah jumlah yang paling optimal untuk mereduksi ketiga
variabel bebas tersebut. Dengan menggunakan tabel
Component Score Coefficient Matrix
lampiran 3 untuk sampel ke-1, diperoleh persamaan untuk faktor baru yang terbentuk adalah sebagai berikut:
.
Skor-skor faktor yang dihasilkan dapat digunakan untuk menggantikan skor-skor
pada variabel bebas yang asli. Setelah komponen hasil PCA yang bebas multikolinearitas diperoleh maka komponen-
komponen tersebut diregresikan atau dianalisis pengaruhnya terhadap variabel tak bebas
dengan menggunakan analisis regresi linear.
6. Model
Regresi yang Ideal
Setelah didapatkan variabel bebas baru yang bebas
multikolinearitas melalui teknik PCA, maka langkah berikutnya adalah meregresikan variabel bebas yang baru
terhadap variabel tak bebas . Karena variabel bebas
baru yang terbentuk hanya satu, maka pada model
tersebut digunakan analisis regresi linear sederhana sebagai berikut:
Dimana:
47
Berdasarkan tabel
Coefficients
a
lampiran 4, diperoleh model regresi sebagai berikut:
4.2.1.3. Mengatasi Masalah Multikolinearitas dengan
Menggunakan Metode Regresi Ridge
Langkah-langkahnya sebagai berikut: Berdasarkan variabel-variabel yang digunakan dalam data
diperoleh model regresi .
Variabel penjelas ditransformasikan ke dalam
bentuk baku sesuai dengan persamaan 12. , dengan
. Dari data pada lampiran 5 sesuai dengan persamaan 2.8 diperoleh:
Sehingga berdasarkan data pada lampiran 5 dengan menggunakan persamaan 2.8 diperoleh nilai variabel penjelas dalam bentuk baku
yang terangkum pada lampiran 6. Berdasarkan data pada lampiran 6 diperoleh:
48
Dengan menggunakan persamaan 2.12 diperoleh matriks koefisien korelasi .
Invers dari matrik adalah
Model regresi linear berganda untuk data yang dibakukan pada lampiran 6 yang sesuai dengan persamaan 2.18 adalah
diperoleh
49
Untuk mendapatkan taksiran koefisien regresi ridge maka harus dicari konstanta yang tepat sedemikian hingga persamaan 2.18
mempunyai solusi yang stabil.untuk memperoleh nilai konstanta yang sesuai maka digunakan metode iterasi.
Jika digunakan metode kuadrat terkecil sesuai dengan persaman 2.7 diperoleh
Dengan dan
. Sesuai dengan persamaan 3.1
Dan Sehingga prosedur iterasinya adalah
Iterasi 1
50
Diambil
Sehingga diperoleh
Sesuai dengan persamaan 3.1 diperoleh
Karena maka iterasi dihentikan.
Selanjutnya digunakan nilai dan
sebagai hasil akhir iterasi. Elemen-elemen dari maks
merupakan koefisien regresi ridge sehingga diperoleh:
51
Jadi diperoleh model regresi linear berganda untuk data dalam bentuk baku sebagai berikut:
Jika variabel dikembalikan ke dalam bentuk variabel asli
dengan mensubstitusikan persamaan 2.8 maka
Sehingga diperoleh
Diperoleh model regresi linear berganda untuk variabel bebas .
. 4.2.1.
Simulasi Sampel Ke-2:
Langkah-langkah untuk menyelesaikannya adalah sebagai berikut:
52
4.2.5.3. Uji Multikolinearitas