Korelasi Multikolinearitas Kesejahteraan Sosial

2-20

2.8 Korelasi

Menurut Walpole, 1992: 370, korelasi adalah ukuran hubungan linear antara dua peubah acak atau variabel yang dilambangkan dengan r. Koefisien korelasi sederhana antara variabel dan secara umum dirumuskan sebagai berikut : 2-21 Dengan koefisien korelasi sederhana antara dan ukuran sampel Koefisien korelasi antara dua variabel adalah suatu ukuran hubungan linear antara kedua variabel tersebut, sehingga jika nilai berarti tidak ada hubungan diantara variabel tersebut.

2.9 Analisis Klaster Cluster Analysis

Analisis Klaster yaitu analisisuntuk mengelompokkan elemen yang mirip sebagai objek penelitian menjadi kelompok cluster yang berbeda Supranto, 2004 : 26. Analisis klaster merupakan teknik multivariat digunakan untuk mengklasifikasi objek atau kasus ke dalam kelompok yang relatif homogen, yang disebut klaster. Objek dalam setiap kelompok cenderung mirip satu sama lain dan berbeda jauh tidak sama dengan objek dari klaster lainnya Supranto, 2004 : 142. Untuk menganalisis klaster, dilakukan proses mengukur kesamaan dan kemudian membuat klaster dengan teknik-teknik analisis klaster.

2.9.1 Ukuran Kesamaan

Sesuai prinsip analisis klaster yang mengelompokkan objek yang mempunyai kemiripan, proses pertama adalah mengukur seberapa jauh ada kesamaan antar objek.Menurut Rencher 2002 : 452 ukuran kesamaan yang di gunakan adalah kedekatan jarak antara dua objek. Makin besar nilai ukuran jarak antar dua buah objek, makin besar pula perbedaan antara kedua objek. Fungsi jarak yang umum adalah jarak Euclidean antara dua vektor dan , didefinisikan sebagai berikut 2-22 Untuk menyesuaikan varians dan kovarian antara variabel p, menggunakan jarak statistik 2-23 di mana Sadalah matriks kovarians sampel. Setelah kelompok terbentuk, S dapat dihitung dan dikumpulkan dalam klaster matriks kovarians.

2.9.2 Teknik – Teknik Analisis Klaster

Ada beberapa teknik yang digunakan dalam analisis klaster yaitu : a Hirarkikal Metode ini memulai pengklasteran data dengan dua atau lebih objek yang mempunyai kesamaan paling dekat kemudian dilanjutkan ke objek lain yang mempunyai kedekatan kedua dan seterusnya sampai klaster akan membentuk semacam pohon sehingga ada tingkatan yang jelas antar objek, dari yang paling mirip sampai yang paling tidak mirip sehingga pada akhirnya hanya akan terbentuk sebuah klaster. Menurut Gudono 2011 : 262, beberapa metode dalam proses pengklasteran hirarkikal adalah sebagai berikut: a. Single Linkage Pada metode single linkage untuk menentukan jarak antar klaster perlu melibatkan semua jarak antardua klaster yang ada dengan jarak Euclidean kuadrat dan kemudian memilih yang terkecil atau terdekat jaraknya. b. Complete Linkage Metode Complete Linkage merupakan kebalikan dari metode single linkage. Dimana dalam metode single linkage pengelompokkan berdasarkan jarak terdekat, sedangkan dalam metode complete linkage pengelompokkan berdasarkan jarak yang terjauh. c. Ward’s Method Pada metode ward menngunakan error sum of squares ESS sebagai pertimbangan, dengan metode ward peneliti ingi memaksimalkan ukuran homoginitas dalam klaster. ESS hanya dapat dihitung jika klaster memiliki elemen lebih dari satu item.ESSklaster yang hanya memiliki satu item adalah nol. Rumus ESS adalah sebagai berikut : 2-24 Dimana adalah rata-rata mean nilai item dalam sebuah klaster, k adalah jumlah anggota klaster. b Non Hirarchical Method Berbeda dengan metode hirarki, metode ini justru dimulai dengan menentukan terlebih dahulu jumlah klaster yang diinginkan. Setiap jumlah klaster diketahui dilakukan tanpa melalui proses hirarki. Metode ini biasa disebut metode K-Means Cluster. c Kombinasi teknik hirarki dan non hirarki Dalam pengklasteran dapat pula digunakan kedua teknik hirarchi dan non hirarchi agar didapatkan keuntungan dari masing-masing teknik. Pada teknik hirarki didapatkan informasi banyak klaster yang ingin dibentuk, profil pusat klaster dan identifikasi data klaster, dan dari informasi teknik hirarki dapat dilanjutkan dengan teknik non hirarki untuk menambah kesempurnaan hasil analisis klaster. Pada analisis klaster terdapat dua asumsi yang harus dipenuhi yaitu sampel mencerminkan populasi dan tidak terjadi multikolinearitas.

2.10. Multikolinearitas

Menurut Vincent 1992 : 114 multikolinearitas adalah adanya hubungan linier yang sempurna diantara beberapa atau semua variabel bebas dalam model regresi. Salah satu cara untuk menguji adanya multikolenieritas adalah dengan menghitung Toleransi atau variance inflation factor VIF atau Toleransi dengan adalah koefisien determinasi. Menghitung nilai Toleransi atau variance inflation factor VIF, jika nilai Toleransi kurang dari 0,1 atau nilai VIF melebihi 10 maka hal tersebut menunjukkan bahwa multikolinearitas adalah masalah yang pasti terjadi antar variabel bebas. Contoh : No x1 x2 1 4 27 2 3 54 3 5 86 4 8 136 5 4 65 6 3 109 7 3 28 8 4 75 9 3 53 10 5 33 11 7 168 12 3 4 13 8 52 Menghitung nilai korelasi antar variabel bebas r r = Menghitung nilai tolerance Tol Tol = 1- = 1- 0,272 = 0,728 Menghitung nilai VIF Karena nilai VIF 10 maka tidak terjadi multikolinearitas. Untuk mengatasi terjadinya multikolinearitas dapat dilakukan analisis komponen utama.

2.11 Analisis Komponen Utama

Analisis komponen utama merupakan suatu teknik analisis statistik untuk mentransformasikan variabel-variabel asli yang masih berkorelasi satu dengan yang lain menjadi satu kelompok variabel baru yang tidak berkorelasi lagi Johnson dan Winchern, 2007: 430 Analisis Komponen Utama pada dasarnya bertujuan untuk menyederhakan variabel yang diamati dengan caramereduksi dimensinya. Hal ini dilakukan dengan cara menghilangkan korelasi diantara variabel bebas melalui transformasi variabel bebas asal ke variabel baru yang tidak berkorelasi sama sekali atau yang biasa disebut dengan principal component. Setelah beberapa komponen hasil analisis komponen utama yang bebas multikolinearitas diperoleh, maka komponen-komponen tersebut menjadi variabel bebas baru yang akan diregresikan atau dianalisa pengaruhnya terhadap variabel tak bebas Y dengan menggunakan analisis regresi, dengan sedikit faktor, sebesar mungkin varians . Analisis komponen utama akan mereduksi data pengamatan ke dalam beberapa kelompok data sedemikian sehingga informasi dari semua data dapat diserap secara optimal mungkin. Menurut Suryanto 1988 : 200 pada analisis komponen utama, vektor variabel semula, yaitu ditransformasikan menjadi vektor variabel dimana untuk i = 1, 2, ..., q ; , untuk i = 1, 2, ..., q ; Sedemikian hingga variabel – variabel bebas satu dengan lain, dan vektor variabel baru menjelaskan proporsi dari variasinya vektor variabel semula, yaitu Pembentukan regresi komponen utama melalui analisis komponen utama ada dua cara, yaitu pertama dengan pembentukan komponen utama berdasarkan matriks kovariansi dan kedua dengan pembentukan komponen utama berdasarkan matriks korelasi.

2.11.1 Komponen Utama yang Dibentuk Berdasarkan Matriks Kovarians

Proses mereduksi data dalam analisis komponen utama akan diuraikan seperti di bawah ini: a Melalui data asal akan dicari matriks varian kovarian ∑ dimana unsur-unsurnya adalah b Kemudian dari matriks varians kovarians tersebut dicari nilai eigen dengan i=1,2,...,p yang diperoleh dari bentuk persamaan determinan : dari nilai eigen tersebut, dihitung vektor-vektor eigen melalui persamaan c Diperoleh yang mengandung varians X i sebesar . Bila 80- 90 dari total varians X hasil reduksi dapat dijelaskan oleh komponen utama tersebut maka dapat menggantikan p buah variabel data asal tanpa kehilangan banyak informasi Johnson Wichern, 1992 : 433 Loading dari variabel X i terhadap PC ke j adalah Setelah mendapatkan faktor yang terbentuk melalui proses reduksi, maka perlu dicari persamaannya dalam bentuk 2-25 yang merupakan model baru dengan = variabel komponen 1 = variabel komponen 2 Model diatas lebih sederhana dibandingkan model regresi multiple awal yang terbentuk : 2-26 Atau 2-27 Proporsi total varians populasi yang dijelaskan oleh komponen utama ke-k 2-28

2.11.2 Komponen Utama yang Dibentuk Berdasarkan Matriks Korelasi

Komponen utama ke-i ; yang dibentuk berdasarkan variabel-variabel yang telah dibakukan dengan didefinisikan sebagai berikut : 2-29 Sementara itu, proporsi total variansi yang dapat dijelaskan oleh komponen ke- k berdasarkan variabel bebas yang telah dibakukan didefinisikan sebagai berikut : 2-30 Dengan = eigen dari ρ, k = 1,2, ...,

2.12 Analisis Diskriminan

Analisis Diskriminan diperkenalkan oleh R.A Fisher pada tahun 1936. Analisis diskriminan meliputi cara pembentukan variat, yaitukombinasi linear dari dua atau lebih variabel independen yang terbaik dalam membedakan kelompok yang telah terdefinisi. Pemilihan kombinasi linear dari pvariabel independen dilakukan dengan pemilihan koefisien-koefisiennya yang menghasilkan hasil bagi maksimum antara variansi antar kelompok dan variansi dalam kelompok Suryanto, 1988 : 170. Secara teknis analisis diskriminan mirip dengan analisis regresi, perbedaannya terletak pada tipe atau skala data variabel dependennya. Pada analisis regresi regresi linear berganda variabel dependen maupun independennya dinyatakan dalam skala interval atau rasio, sedangkan analisis diskriminan variabel dependennya dinyatakan dalam skala nominal atau ordinal dan variabel independennya dinyatakan dalam skala interval atau rasio Teknik analisis diskriminan dibedakan menjadi dua yaitu analisis diskriminan dua kelompok dan analisis diskriminan lebih dari dua kelompok yang disebut analisis diskriminan ganda multiple discriminant analysis. Pada analisis diskriminan dua kelompok, variabel tak bebas dikelompokkan menjadi dua dan diperlukan satu fungsi diskriminan. Sedangkan untuk analisis diskriminan ganda, variabel tak bebas di kelompokkan menjadi lebih dari dua kelompok dan diperlukan fungsi diskriminan sebanyak k-1 jika ada k kategori.

2.12.1 Tujuan Analisis Diskriminan

Tujuan dari Analisis Diskriminan menurut Supranto 2004 : 77 adalah 1. Membuat suatu fungsi diskriminan atau kombinasi linear, dari prediktor atau variabel bebas yang bisa mendiskriminasi atau membedakan kategori variabel tak bebas atau criterion atau kelompok, artinya mampu membedakan suatu objek masuk kelompok kategori yang mana. 2. Menguji apakah ada perbedaan signifikan antara kategorikelompok, dikaitkan dengan variabel bebas atau prediktor. 3. Menentukan variabel bebas yang mana yang memberikan sumbangan terbesar terhadap terjadinya perbedaan antar-kelompok. 4. Mengklarifikasimengelompokkan objekkasus atau responden ke dalam suatu kelompok kategori didasarkan pada nilai variabel bebas. 5. Mengevaluasi keakuratan klasifikasi

2.13. Kesejahteraan Sosial

Menurut Undang-Undang No 11 Tahun 2009, Tingkat Kesejahteraan Sosial adalah kondisi terpenuhinya kebutuhan material, spiritual, dan sosial warga negara agar dapat hidup layak dan mampu mengembangkan diri, sehingga dapat melaksanakan fungsi sosialnya. Tujuan pembangunan nasional pada dasarnya adalah untuk meningkatkan kesejahteraan sosial.Berbagai program pembangunan telah dilakukan oleh pemerintah, baik di bidang pendidikan, kesehatan, ekonomi, perumahan, lingkungan hidup, keamanan, politik dan lain sebagainya. Keseluruhan upaya tersebut ditempuh melalui program-program pembangunan yang menyangkut aspek ekonomi, kesehatan, pendidikan serta kehidupan sosial lainnya baik yang dilakukan oleh pemerintah, swasta maupun secara swadaya oleh masyarakat.Usaha-usaha tersebut merupakan kegiatan berkesinambungan yang bermuara untuk mencapai tujuan pembangunan secara optimal. Pembangunan ekonomi di Indonesia belum mampu meningkatkan kesejahteraan rakyat secara luas, yang ditandai oleh tingginya ketimpangan dan kemiskinan. Keberhasilan pembangunan sering diukur oleh istilah Produk Nasional Bruto PNB atau GNB dan Produk Domestik Bruto PDB atau GDP maka kekayaan keseluruhan yang dimiliki suatu negara tidak berarti bahwa kekayaan itu merata dimiliki oleh semua penduduknya.

2.14 Tujuan dan Manfaat Indikator Kesejahteraan sosial