Identifikasi Multikolinieritas

4.3 Identifikasi Multikolinieritas

Identifikasi Multikolinieritas dapat dilihat dari analisis korelasi antara variabel bebas X 1, X 2 ,X 3 ,X 4 ,X 5 ,X 6 ,X 7 ,X 8 dan X 9 dengan variabel tak bebas Y, hasil uji data dapat dilihat sebagai berikut: Tabel 4.3 Koefisien Korelasi Antara Variabel Bebas dan Variabel Terikat

Y X1 X2 X3 X4 X5 X6 X7 X8

X1 0,464

X2 -0,064 0,450 X3 -0,036 0,097 0,554

X4 0,246 0,051 0,336 0,481 X5 -0,283 -0,170 -0,311 -0,627 -0,036 X6 -0,013 -0.037 -0,637 -0,711 -0,506 0,456

X7 0,425 -0,020 -0,513 -0,484 -0,496 -0,255 0,555

X8 -0,130 -0,431 -0,472 -0,489 -0,797 -0,075 0,251 0,566 X9 -0,195 -0,364 -0,723 -0,503 -0,784 0,122 0,609 0,457 0,758

Dari matriks korelasi dapat diketahui variabel yang mempunyai nilai P-value kurang dari  = 0,05 adalah dan terjadi kasus multikolinier dapat dilihat dengan membandingkan koefisien korelasi antara variabel bebasnya dengan koefisien korelasi antara X 2 ,X 3 ,X 5 ,X 6 ,X 8 dan X 9 dengan Y Pada Tabel 4.3 terlihat bahwa koefisien korelasi lebih besar dari . Koefisien korelasi lebih besar dari . Koefisien korelasi lebih besar dari . Koefisien korelasi lebih besar dari . Koefisien korelasi lebih besar dari ,dan Koefisien korelasi lebih besar dari . Sehingga dapat disimpulkan adanya kasus multikolinearitas antar variabel bebasnya.

Selain dengan melihat matriks korelasi, multikolinieritas dapat juga diketahui dari VIF ( Variance Inflation Factor ) seperti pada Lampiran 4. Apabila nilai VIF lebih dari 10 berarti terjadi multikolinieritas. Tabel 4.4 adalah tabel nilai VIF pada Lampiran 4. Tabel 4.4 Faktor Kenaikan Keragaman

Variabel

VIF

X1 6,754 X2 10,534 X3 22,943 X4 25,353 X5 23,818 X6 25,534 X7 23,870 X8 51,107 X9 24,242

Pada Tabel 4.4 dapat dilihat bahwa untuk variabel X2, X3, X4, X5, X6, X7, X8, dan X9 mempunyai nilai VIF lebih dari 10, hal ini jelas menandakan bahwa ada kasus multikolinieritas antar variabel bebasnya. Adanya multikolinieritas akan diatasi dengan metode analisis Best Subset Regression dan Backwa rd Elimination.

4.4 Analisis Best Subset Regression

Langkah pertama adalah memilih semua subset (model) yang terbaik sesuai dengan 4 kriteria yaitu : Nilai R-Sq terbesar, Nilai R-Sq (Adj) terbesar, Nilai C-p terkecil dan Nilai S terkecil.

Best Subsets Regression: y versus x1; x2; x3; x4; x5; x6; x7; x8; x9

Response is y

Mallows x x x x x x x x x

Vars R-Sq R-Sq(adj) Cp S 1 2 3 4 5 6 7 8 9 1 21,5 12,8 0,9 0,12932 X

1 18,0 8,9 1,3 0,13214 X 2 45,7 32,2 0,5 0,11403 X X 2 40,3 25,4 1,0 0,11959 X X 3 65,8 51,1 0,5 0,096834 X X X 3 53,9 34,2 1,7 0,11232 X X X 4 73,7 56,1 1,7 0,091721 X X X X 4 69,0 48,3 2,1 0,099598 X X X X 5 77,3 54,6 3,3 0,093264 X X X X X 5 76,4 52,9 3,4 0,095074 X X X X X 6 80,2 50,4 5,0 0,097514 X X X X X X 6 80,0 49,9 5,0 0,097981 X X X X X X 7 85,9 53,0 6,4 0,094913 X X X X X X X 7 83,0 43,3 6,7 0,10424 X X X X X X X 8 89,8 48,8 8,0 0,099119 X X X X X X X X 8 86,1 30,6 8,4 0,11532 X X X X X X X X 9 90,1 1,0 10,0 0,13779 X X X X X X X X X

Pada hasil dari best subset regression dengan minitab 16 di atas terdapat 17 persamaan, sehingga dapat dibandingkan persamaan manakah yang memiliki 4 kriteria tersebut, dan dapat dilihat ada satu persamaan yang mendekati keempat kriteria tersebut dengan R-Sq (Adj) sebesar (51,1), C-p Mallow terkecil (0,5) dan nilai S terkecil (0,096834) pada peubah X1, X4, dan X7 . Maka selanjutnya kita mencoba analisis regresi dengan tiga peubah tersebut.

Pada Lampiran 7 hasil dari analisis regresi hubungan antara angka ketenagakerjaan dengan tingkat pendidikan belum tamat SD (X1), SMA (X4), dan DIII (X7) adalah sebagai berikut :

dengan S = 0,0968336

R-Sq (adj) = 51,1 % Adapun pengujian koefisien regresi secara serentak dapat dilihat pada tabel di

R-Sq = 65,8 %

bawah ini : Tabel 4.5 Pengujian Koefisien Regresi secara Serentak Sumber

F hitung Variasi

Derajat Bebas

Kuadrat (JK) Tengah (KT)

Dari tabel di atas dapat diketahui uji F atau nilai . Sehingga didapat

didapat dari tabel dengan

nilai ,

yang berarti bahwa hipotesis nol ditolak, dengan kata lain ada pengaruh signifikan antara variabel bebas dengan variabel terikatnya.

Selanjutnya untuk mengetahui lebih lanjut bahwa variabel tersebut masuk dalam model atau tidak dapat diketahui dari Pengujian Koefisien Regresi secara Individual. Sehingga pada Lampiran 7 dapat diperoleh hasil sebagai berikut:

Tabel 4.6 Pengujian Koefisien Regresi secara Individual Variabel

T hitung VIF Bebas

1,327 Pada tabel di atas dapat diketahui bahwa nilai T hitung pada X7 lebih besar dari sehingga H 0 ditolak, ini berarti variabel tersebut masuk dalam

X7 2,0499

model, sedangkan T hitung X1 dan X4 lebih kecil dari sehingga H 0 diterima, dan kedua variabel tersebut tidak masuk ke dalam model. Pada Tabel 4.6 dapat diketahui bahwa nilai VIF pada tiap-tiap variabel lebih kecil dari 10 sehingga menunjukkan sudah tidak adanya multikolinieritas, dan pada Lampiran 7 dapat diketahui bahwa nilai P-Value = 0,047 lebih kecil dari 0,05 maka data signifikan.

Dari hasil best subset regression dan analisis regresi di atas dapat disimpulkan model persamaan regresi terbaiknya yaitu:

Dengan nilai R-sq = 65,8 % yang meyatakan bahwa 65,8 % variabel Y dipengaruhi oleh X1, X2 dan X3 dan 34,2 % dipengaruhi oleh faktor lainnya, P- Value 0,047 kurang dari 0,05 sehingga data dikatakan signifikan dan nilai VIF kurang dari 10 menandakan tidak terjadinya multikolinieritas sudah terpenuhi.

4.5 Metode Backward Elimination Dari hasil best subet regression di atas kita lihat kembali dengan menggunakan Backwa rd elimination pada minitab 16, sehingga sesuai dengan Lampiran 8 dari hasil Backward elimination diketahui bahwa :

a. Analisis terhadap P-Value

1. Pada Langkah pertama semua data masuk dalam persamaan regresi. Kemudian melihat P-Value dengan

dari masing-masing

variabel. Diketahui bahwa P-Value dari X6 = 0,882 lebih dari 0,15 sehingga pada langkah ke-2 dihilangkan lebih dahulu

2. Pada langkah ke-2 tersisa X1, X2, X3, X4, X5, X7, X8, dan X9 . Kemudian dilihat nilai P-Value dari tiap-tiap variabel diketahui bahwa P- Value dari X2 = 0,478 lebih dari 0,15 sehingga pada langkah ke 3 dihilangkan.

3. Pada langkah ke-3 tersisa variabel X1,X3,X4,X5,X7,X8, dan X9. Kemudian dilihat lagi P-Value pada tiap-tiap variabel diketahui bahwa P- Value dari X9 = 0,350 lebih besar dari 0,15 sehingga pada langkah ke-4 dihilangkan.

4. Pada langkah ke-4 tersisa variabel X1, X3, X4, X5,X7 dan X8. Kemudian dilihat lagi P-Value pada tiap-tiap variabel diketahui bahwa P-Value dari X3 = 0,338 lebih besar dari 0,15 sehingga pada langkah ke-5 dihilangkan.

5. Pada langkah ke-5 tersisa variabel X1,X4,X5,X7 dan X8. Kemudian dilihat lagi P-Value pada tiap-tiap variabel diketahui bahwa P-Value dari X5 = 0,742 lebih besar dari 0,15 sehingga pada langkah ke-6 dihilangkan.

6. Pada langkah ke-6 tersisa variabel X1,X4, X7 dan X8. Kemudian dilihat lagi P-Value pada tiap-tiap variabel diketahui bahwa P-Value dari X8= 0,228 lebih besar dari 0,15 sehingga pada langkah ke-7 dihilangkan.

7. Pada langkah ke-7 tersisa tiga variabel X1,X4, dan X7. P-Value dari X1 = 0,083, X4 = 0,057, dan X7 = 0,025. Sehingga X1,X4,X7 masuk dalam model diperoleh persamaan regresi yang baru yaitu Y = 0,1061 + 2,5 X1 + 1,07 X4 + 2,05 X7 dengan R-Sq = 65,76, Cp Mallow = 0,5, dan S = 0,0968.

b. Analisis dengan T-Value

1. Pada langkah pertama semua variabel masuk dalam persamaan regresi dengan nilai T-Value terendah dari X6 = -0,19. Sehingga pada langkah ke-2 variabel X6 dihilangkan.

2. Pada langkah ke-2 tersisa variabel X1, X2, X3, X4, X5, X7, X8,dan X9. Kemudian dari T-Value tiap-tiap variabel tersebut diketahui nilai T-Value variabel X2 = 0,87. Sehingga pada langkah ke-3 variabel X2 dihilangkan.

3. Pada langkah ke-3 tersisa variabel X1, X3, X4, X5, X7, X8, dan X9. Kemudian dari T-Value tiap-tiap variabel tersebut diketahui nilai T-Value variabel X9 = 1,11. Sehingga pada langkah ke-4 variabel X9 dihilangkan.

4. Pada langkah ke-4 tersisa variabel X1, X3, X4, X5, X7 dan X8. Kemudian dari T-Value tiap-tiap variabel tersebut diketahui nilai T-Value variabel X3 = 1,09. Sehingga pada langkah ke-5 variabel X3 dihilangkan.

5. Pada langkah ke-5 tersisa variabel X1, X4, X5, X7 dan X8. Kemudian dari T-Value tiap-tiap variabel tersebut diketahui nilai T-Value variabel X5 = 0,35. Sehingga pada langkah ke-6 variabel X5 dihilangkan.

6. Pada langkah ke-6 tersisa variabel X1, X4, X7 dan X8. Kemudian dari T- Value tiap-tiap variabel tersebut diketahui nilai T-Value variabel X8 = 1,34. Sehingga pada langkah ke-7 variabel X8 dihilangkan.

7. Pada langkah ke-7 tersisa X1, X4, dan X7 dengan T-Value besar sehingga X1, X4, dan X7 masuk dalam model dan diperoleh persamaan regresi terbaru yaitu Y = 0,1061 + 2,5 X1 + 1,07 X4 + 2,05 X7 dengan R-Sq = 65,76, Cp Mallow = 0,5, dan S = 0,0968.

Berdasarkan hasil prosedur best subset regression dan backwa rd elimination menghasilkan model persamaan yang sama yaitu :

dengan S = 0,0968336 ,R-Sq = 65,8 %, R-Sq (adj) = 51,1 % dan nilai VIF kurang dari 10 yang menandakan sudah tidak terjadi multikolinieritas, serta nilai P-Value 0,047 kurang dari 0,05 menunjukan data signifikan.

Sehingga dapat disimpulkan bahwa yang mempengaruhi angka ketenagakerjaan adalah peubah (X1) belum tamat SD, (X4) SMA/Aliyah, dan (X7) D III. Dari model persamaan tersebut selanjutnya kita uji dengan pengujian asumsi persamaan regresi linier berganda.

 Uji Normalitas Sisaan

Probability Plot of RESI3

-2,37184E-16 StDev

AD 0,500 P-Value

Gambar 4.1 Uji Normalitas Sisaan

Dari grafik normal plot residual terlihat bahwa grafik membentuk garis lurus dengan sudut 45 o , dengan menggunakan uji Anderson-Darling nilai P-value 0,163

itu berarti P-value > 0,05 sehingga menyebabkan H 0 diterima dan menunjukan bahwa data berdistribusi normal, dengan kata lain asumsi ini terpenuhi.

 Uji Homogenitas Sisaan

Fitted Line Plot

RESI3 = 0,0000 - 0,0000 FITS3

0,0% R-Sq(adj)

Gambar 4.2 Uji Homogenitas Sisaan

Pada Fitted Line Plot di atas antara nilai sisaan baku dengan nilai dugaan, terlihat plot menyebar dari -2 sampai 2, sehingga asumsi kehomogenan nilai sisaan terpenuhi.

 Autokorelasi

model terbaik

u to -0,2 A -0,4

-0,6 -0,8 -1,0

Lag

Gambar 4.3 Grafik Autokorelasi Jika dilihat dari grafik autokorelasi, terlihat bahwa lag pertama signifikan

sehingga dapat disimpulkan bahwa nilai sisaannya bersifat acak. Dengan demikian asumsi nilai sisaan terpenuhi.

42