2-20
2.8 Korelasi
Menurut Walpole, 1992: 370, korelasi adalah ukuran hubungan linear antara dua peubah acak atau variabel yang dilambangkan dengan r. Koefisien
korelasi sederhana antara variabel dan
secara umum dirumuskan sebagai berikut :
2-21
Dengan koefisien korelasi sederhana antara
dan ukuran sampel
Koefisien korelasi antara dua variabel adalah suatu ukuran hubungan linear antara kedua variabel tersebut, sehingga jika nilai
berarti tidak ada hubungan diantara variabel tersebut.
2.9 Analisis Klaster Cluster Analysis
Analisis Klaster yaitu analisisuntuk mengelompokkan elemen yang mirip sebagai objek penelitian menjadi kelompok cluster yang berbeda Supranto,
2004 : 26. Analisis klaster merupakan teknik multivariat digunakan untuk mengklasifikasi objek atau kasus ke dalam kelompok yang relatif homogen, yang
disebut klaster. Objek dalam setiap kelompok cenderung mirip satu sama lain dan berbeda jauh tidak sama dengan objek dari klaster lainnya Supranto, 2004 :
142. Untuk menganalisis klaster, dilakukan proses mengukur kesamaan dan kemudian membuat klaster dengan teknik-teknik analisis klaster.
2.9.1 Ukuran Kesamaan
Sesuai prinsip analisis klaster yang mengelompokkan objek yang mempunyai kemiripan, proses pertama adalah mengukur seberapa jauh ada
kesamaan antar objek.Menurut Rencher 2002 : 452 ukuran kesamaan yang di gunakan adalah kedekatan jarak antara dua objek. Makin besar nilai ukuran
jarak antar dua buah objek, makin besar pula perbedaan antara kedua objek. Fungsi jarak yang umum adalah jarak Euclidean antara dua vektor
dan , didefinisikan sebagai berikut
2-22
Untuk menyesuaikan varians dan kovarian antara variabel p, menggunakan jarak statistik
2-23 di mana Sadalah matriks kovarians sampel. Setelah kelompok terbentuk, S
dapat dihitung dan dikumpulkan dalam klaster matriks kovarians.
2.9.2 Teknik – Teknik Analisis Klaster
Ada beberapa teknik yang digunakan dalam analisis klaster yaitu :
a Hirarkikal
Metode ini memulai pengklasteran data dengan dua atau lebih objek yang mempunyai kesamaan paling dekat kemudian dilanjutkan ke
objek lain yang mempunyai kedekatan kedua dan seterusnya sampai klaster akan membentuk semacam pohon sehingga ada tingkatan yang
jelas antar objek, dari yang paling mirip sampai yang paling tidak mirip sehingga pada akhirnya hanya akan terbentuk sebuah klaster.
Menurut Gudono 2011 : 262, beberapa metode dalam proses pengklasteran hirarkikal adalah sebagai berikut:
a. Single Linkage Pada metode single linkage untuk menentukan jarak antar klaster
perlu melibatkan semua jarak antardua klaster yang ada dengan jarak Euclidean kuadrat dan kemudian memilih yang terkecil atau terdekat
jaraknya. b. Complete Linkage
Metode Complete Linkage merupakan kebalikan dari metode single linkage. Dimana dalam metode single linkage pengelompokkan
berdasarkan jarak terdekat, sedangkan dalam metode complete linkage pengelompokkan berdasarkan jarak yang terjauh.
c. Ward’s Method
Pada metode ward menngunakan error sum of squares ESS sebagai pertimbangan, dengan metode ward peneliti ingi memaksimalkan
ukuran homoginitas dalam klaster. ESS hanya dapat dihitung jika klaster memiliki elemen lebih dari satu item.ESSklaster yang hanya memiliki satu
item adalah nol. Rumus ESS adalah sebagai berikut : 2-24
Dimana adalah rata-rata mean nilai item dalam sebuah klaster, k adalah jumlah anggota klaster.
b Non Hirarchical Method
Berbeda dengan metode hirarki, metode ini justru dimulai dengan menentukan terlebih dahulu jumlah klaster yang diinginkan. Setiap jumlah
klaster diketahui dilakukan tanpa melalui proses hirarki. Metode ini biasa disebut metode K-Means Cluster.
c Kombinasi teknik hirarki dan non hirarki
Dalam pengklasteran dapat pula digunakan kedua teknik hirarchi dan non hirarchi agar didapatkan keuntungan dari masing-masing teknik. Pada
teknik hirarki didapatkan informasi banyak klaster yang ingin dibentuk, profil pusat klaster dan identifikasi data klaster, dan dari informasi teknik hirarki
dapat dilanjutkan dengan teknik non hirarki untuk menambah kesempurnaan hasil analisis klaster.
Pada analisis klaster terdapat dua asumsi yang harus dipenuhi yaitu sampel mencerminkan populasi dan tidak terjadi multikolinearitas.
2.10. Multikolinearitas
Menurut Vincent 1992 : 114 multikolinearitas adalah adanya hubungan linier yang sempurna diantara beberapa atau semua variabel bebas dalam model
regresi. Salah satu cara untuk menguji adanya multikolenieritas adalah dengan menghitung Toleransi atau variance inflation factor VIF
atau Toleransi dengan
adalah koefisien determinasi. Menghitung nilai Toleransi atau variance inflation factor VIF, jika nilai
Toleransi kurang dari 0,1 atau nilai VIF melebihi 10 maka hal tersebut menunjukkan bahwa multikolinearitas adalah masalah yang pasti terjadi antar
variabel bebas. Contoh :
No x1
x2 1
4 27
2 3
54 3
5 86
4 8
136 5
4 65
6 3
109 7
3 28
8 4
75 9
3 53
10 5
33 11
7 168
12 3
4 13
8 52
Menghitung nilai korelasi antar variabel bebas r r =
Menghitung nilai tolerance Tol Tol = 1-
= 1- 0,272 = 0,728
Menghitung nilai VIF
Karena nilai VIF 10 maka tidak terjadi multikolinearitas. Untuk mengatasi terjadinya multikolinearitas dapat dilakukan analisis komponen
utama.
2.11 Analisis Komponen Utama
Analisis komponen utama merupakan suatu teknik analisis statistik untuk mentransformasikan variabel-variabel asli yang masih berkorelasi satu dengan
yang lain menjadi satu kelompok variabel baru yang tidak berkorelasi lagi Johnson dan Winchern, 2007: 430
Analisis Komponen Utama pada dasarnya bertujuan untuk menyederhakan variabel yang diamati dengan caramereduksi dimensinya. Hal ini dilakukan
dengan cara menghilangkan korelasi diantara variabel bebas melalui transformasi variabel bebas asal ke variabel baru yang tidak berkorelasi sama sekali atau yang
biasa disebut dengan principal component. Setelah beberapa komponen hasil analisis komponen utama yang bebas multikolinearitas diperoleh, maka
komponen-komponen tersebut menjadi variabel bebas baru yang akan diregresikan atau dianalisa pengaruhnya terhadap variabel tak bebas Y dengan
menggunakan analisis regresi, dengan sedikit faktor, sebesar mungkin varians .
Analisis komponen utama akan mereduksi data pengamatan ke dalam beberapa kelompok data sedemikian sehingga informasi dari semua data dapat
diserap secara optimal mungkin. Menurut Suryanto 1988 : 200 pada analisis komponen utama, vektor
variabel semula, yaitu ditransformasikan menjadi vektor
variabel dimana
untuk i = 1, 2, ..., q ; , untuk i = 1, 2, ..., q ;
Sedemikian hingga variabel – variabel
bebas satu dengan lain, dan vektor variabel baru
menjelaskan proporsi dari variasinya vektor variabel semula, yaitu
Pembentukan regresi komponen utama melalui analisis komponen utama ada dua cara, yaitu pertama dengan pembentukan komponen utama berdasarkan matriks
kovariansi dan kedua dengan pembentukan komponen utama berdasarkan matriks korelasi.
2.11.1 Komponen Utama yang Dibentuk Berdasarkan Matriks Kovarians
Proses mereduksi data dalam analisis komponen utama akan diuraikan seperti di bawah ini:
a Melalui data asal
akan dicari matriks varian kovarian ∑ dimana
unsur-unsurnya adalah
b Kemudian dari matriks varians kovarians tersebut dicari nilai eigen
dengan i=1,2,...,p yang diperoleh dari bentuk persamaan determinan : dari nilai eigen tersebut, dihitung vektor-vektor eigen
melalui persamaan c
Diperoleh yang mengandung varians X
i
sebesar . Bila 80-
90 dari total varians X hasil reduksi dapat dijelaskan oleh komponen utama tersebut maka dapat menggantikan p buah variabel data asal tanpa
kehilangan banyak informasi Johnson Wichern, 1992 : 433 Loading dari variabel X
i
terhadap PC ke j adalah
Setelah mendapatkan faktor yang terbentuk melalui proses reduksi, maka perlu dicari persamaannya dalam bentuk
2-25 yang merupakan model baru dengan
= variabel komponen 1 = variabel komponen 2
Model diatas lebih sederhana dibandingkan model regresi multiple awal yang terbentuk :
2-26 Atau
2-27 Proporsi total varians populasi yang dijelaskan oleh komponen utama ke-k
2-28
2.11.2 Komponen Utama yang Dibentuk Berdasarkan Matriks Korelasi
Komponen utama ke-i ; yang dibentuk berdasarkan variabel-variabel
yang telah dibakukan dengan
didefinisikan sebagai berikut :
2-29 Sementara itu, proporsi total variansi yang dapat dijelaskan oleh komponen ke-
k berdasarkan variabel bebas yang telah dibakukan didefinisikan sebagai berikut :
2-30
Dengan = eigen dari
ρ, k = 1,2, ...,
2.12 Analisis Diskriminan
Analisis Diskriminan diperkenalkan oleh R.A Fisher pada tahun 1936. Analisis diskriminan meliputi cara pembentukan variat, yaitukombinasi linear dari
dua atau lebih variabel independen yang terbaik dalam membedakan kelompok yang telah terdefinisi. Pemilihan kombinasi linear dari pvariabel independen
dilakukan dengan pemilihan koefisien-koefisiennya yang menghasilkan hasil bagi maksimum antara variansi antar kelompok dan variansi dalam kelompok
Suryanto, 1988 : 170. Secara teknis analisis diskriminan mirip dengan analisis regresi, perbedaannya terletak pada tipe atau skala data variabel dependennya.
Pada analisis regresi regresi linear berganda variabel dependen maupun independennya dinyatakan dalam skala interval atau rasio, sedangkan analisis
diskriminan variabel dependennya dinyatakan dalam skala nominal atau ordinal dan variabel independennya dinyatakan dalam skala interval atau rasio
Teknik analisis diskriminan dibedakan menjadi dua yaitu analisis diskriminan dua kelompok dan analisis diskriminan lebih dari dua kelompok yang
disebut analisis diskriminan ganda multiple discriminant analysis. Pada analisis diskriminan dua kelompok, variabel tak bebas dikelompokkan menjadi dua dan
diperlukan satu fungsi diskriminan. Sedangkan untuk analisis diskriminan ganda, variabel tak bebas di kelompokkan menjadi lebih dari dua kelompok dan
diperlukan fungsi diskriminan sebanyak k-1 jika ada k kategori.
2.12.1 Tujuan Analisis Diskriminan
Tujuan dari Analisis Diskriminan menurut Supranto 2004 : 77 adalah 1. Membuat suatu fungsi diskriminan atau kombinasi linear, dari prediktor atau
variabel bebas yang bisa mendiskriminasi atau membedakan kategori variabel tak bebas atau criterion atau kelompok, artinya mampu
membedakan suatu objek masuk kelompok kategori yang mana. 2. Menguji apakah ada perbedaan signifikan antara kategorikelompok,
dikaitkan dengan variabel bebas atau prediktor. 3. Menentukan variabel bebas yang mana yang memberikan sumbangan
terbesar terhadap terjadinya perbedaan antar-kelompok. 4. Mengklarifikasimengelompokkan objekkasus atau responden ke dalam
suatu kelompok kategori didasarkan pada nilai variabel bebas. 5. Mengevaluasi keakuratan klasifikasi
2.13. Kesejahteraan Sosial
Menurut Undang-Undang No 11 Tahun 2009, Tingkat Kesejahteraan Sosial adalah kondisi terpenuhinya kebutuhan material, spiritual, dan sosial warga
negara agar dapat hidup layak dan mampu mengembangkan diri, sehingga dapat melaksanakan fungsi sosialnya.
Tujuan pembangunan nasional pada dasarnya adalah untuk meningkatkan kesejahteraan sosial.Berbagai program pembangunan telah dilakukan oleh
pemerintah, baik di bidang pendidikan, kesehatan, ekonomi, perumahan, lingkungan hidup, keamanan, politik dan lain sebagainya.
Keseluruhan upaya tersebut ditempuh melalui program-program pembangunan yang menyangkut aspek ekonomi, kesehatan, pendidikan serta
kehidupan sosial lainnya baik yang dilakukan oleh pemerintah, swasta maupun secara swadaya oleh masyarakat.Usaha-usaha tersebut merupakan kegiatan
berkesinambungan yang bermuara untuk mencapai tujuan pembangunan secara optimal. Pembangunan ekonomi di Indonesia belum mampu meningkatkan
kesejahteraan rakyat secara luas, yang ditandai oleh tingginya ketimpangan dan kemiskinan. Keberhasilan pembangunan sering diukur oleh istilah Produk
Nasional Bruto PNB atau GNB dan Produk Domestik Bruto PDB atau GDP maka kekayaan keseluruhan yang dimiliki suatu negara tidak berarti bahwa
kekayaan itu merata dimiliki oleh semua penduduknya.
2.14 Tujuan dan Manfaat Indikator Kesejahteraan sosial