Algoritma Modified K-MEANS Clustering Pada Penentuan Cluster Centre Berbasis Sum Of Squared Error (SSE)

(1)

ALGORITMA MODIFIED K-MEANS CLUSTERING PADA

PENENTUAN CLUSTER CENTRE BERBASIS

SUM OF SQUARED ERROR (SSE)

TESIS

RENA NAINGGOLAN

127038028

PROGRAM STUDI S2 TEKNIK INFORMATIKA

FAKULTAS ILMU KOMPUTER DAN TEKNOLOGI INFORMASI

UNIVERSITAS SUMATERA UTARA

MEDAN

2014


(2)

ALGORITMA MODIFIED K-MEANS CLUSTERING PADA

PENENTUAN CLUSTER CENTRE BERBASIS

SUM OF SQUARED ERROR (SSE)

TESIS

Diajukan untuk melengkapi tugas dan memenuhi syarat memperoleh ijazah

Magister Teknik Informatika

RENA NAINGGOLAN

127038028

PROGRAM STUDI S2 TEKNIK INFORMATIKA

FAKULTAS ILMU KOMPUTER DAN TEKNOLOGI INFORMASI

UNIVERSITAS SUMATERA UTARA

MEDAN

2014


(3)

PERSETUJUAN

Judul : ALGORITMA MODIFIED K-MEANS CLUSTERING PADA PENENTUAN CLUSTER CENTRE BERBASIS SUM OF SQUARED ERROR (SSE)

Nama : RENA NAINGGOLAN

Nomor Induk Mahasiswa : 127038028

Program Studi : MAGISTER TEKNIK INFORMATIKA

Fakultas : ILMU KOMPUTER DAN TEKNOLOGI INFORMASI UNIVERSITAS SUMATERA UTARA

Komisi Pembimbing :

Pembimbing 2 Pembimbing 1

Prof. Dr. Iryanto, M. SI Prof. Dr. Herman Mawengkang

Diketahui/Disetujui Oleh

Program Studi Magister (S2) Teknik Informatika Ketua,

Prof. Dr. Muhammad Zarlis NIP. 195707011986011003


(4)

PENYATAAN

ALGORITMA MODIFIED K-MEANS CLUSTERING PADA PENENTUAN CLUSTER CENTRE BERBASIS

SUM OF SQUARED ERROR (SSE)

TESIS

Saya mengakui bahwa tesis ini adalah hasil karya saya sendiri, kecuali beberapa kutipan dan ringkasan yang masing-masing telah disebutkan sumbernya.

Medan, 28 Agustus 2014

RENA NAINGGOLAN 127038028


(5)

PERNYATAAN PERSETUJUAN PUBLIKASI KARYA ILMIAH UNTUK KEPENTINGAN

AKADEMIS

Sebagai sivitas akademika Universitas Sumatera Utara, saya yang bertanda tangan di bawah ini :

Nama Mahasiswa : RENA NAINGGOLAN Nomor Induk Mahasiwa : 127038028

Program Studi : Magister Teknik Informatika Jenis Karya Ilmiah : Tesis

Demi pengembangan ilmu pengetahuan, menyetujui untuk memberikan kepada Universitas Sumatera Utara Hak Bebas Royalti Non-Eksklusif (Non Exclusive Royalti Free Right) atas tesis saya yang berjudul:

ALGORITMA MODIFIED K-MEANS CLUSTERING PADA PENENTUAN CLUSTER CENTRE BERBASIS

SUM OF SQUARED ERROR (SSE)

Berserta perangkat yang ada (jika diperlukan).Dengan hak bebas royalty Non-Eksklusive ini, Universitas Sumatera Utara berhak menyimpan, mengalih media, memformat, mengelola dalam bentuk database, merawat dan mempublikasikan tesis saya tanpa meminta izin dari saya, selama tetap mencamtumkan nama saya sebagai penulis dan sebagai pemegang dan/atau sebagai hak cipta.

Demikianlah pernyataan ini dibuat dengan sebenarnya.

Medan, 28 Agustus 2014

RENA NAINGGOLAN 127038028


(6)

Telah diuji pada :

Tanggal : 28 Agustus2014

PANITIA PENGUJI TESIS

Ketua : Prof. Dr. Herman Mawengkang Anggota : 1. Prof. Dr. Iryanto, M. SI

2. Prof. Dr. Muhammad Zarlis 3. Dr. Syahril Efendi


(7)

RIWAYAT HIDUP

DATA PRIBADI

Nama Lengkap : Rena Nainggolan Tempat dan Tanggal Lahir : Garoga, 17 Juli1985

Alamat Rumah : Jl. Jamin Ginting, KM. 14, Blok R2, No.16 Telepon /Fax/HP : -/-/085762178101

E-mail : rena_q123@yahoo.com Instansi Tempat Bekerja : RSUD Dr. Pirngadi Medan

Alamat Kantor : Jl. Prof. H. M. Yamin, NO.47 Medan

DATA PENDIDIKAN

SD : SD Negeri 173807 TAMAT :1997

SLTP : SLTP Negeri 1 Simanindo TAMAT:2000 SLTA : SMK Telkom Sandhy Putra Medan TAMAT : 2003 S1 : Teknik Informatika STMIK MIKROSKIL TAMAT :2011


(8)

UCAPAN TERIMA KASIH

Puji syukur kepada Tuhan Yang Maha Esa, atas segala limpahan berkat dan penyertaan-Nya sehingga tesis ini dapat diselesaikan tepat pada waktunya. Dengan selesainya tesis ini, perkenankanlah penulis mengucapkan terima kasih yang sebesar-besarnya kepada :

Rektor Universitas Sumatera Utara, Prof. Dr. dr. Syahril Pasaribu, DTM&H, M.Sc (CTM), Sp. A(K) atas kesempatan yang diberikan kepada penulis untuk mengikuti dan menyelesaikan pendidikan Program Magister.

Dekan Fasilkom-TI (Fakultas Ilmu Komputer dan Teknologi Informasi) Universitas Sumatera Utara Prof. Dr. Muhammad Zarlis, atas kesempatan yang diberikan kepada penulismenjadi mahasiswa Program Magister pada Program Pascasarjana Fasilkom-TI Universitas Sumatera Utara.

Ketua Program Studi Magister (S2) Teknik Informatika, Prof. Dr. Muhammad Zarlis dan Sekretaris Program Studi Magister (S2) Teknik Informatika M. Andri Budiman, S.T, M.Comp, M.E.M beserta seluruh staff pengajar pada Program Studi Magister (S2) Teknik Informatika Program Pascasarjana Fasilkom-TI Universitas Sumatera Utara, yang telah bersedia membimbing penulis sehingga dapat menyelesaikan pendidikan tepat pada waktunya.

Terimakasih yang tak terhingga dan penghargaan yang ssetinggi-tingginya penulis ucapkan kepada Prof. Dr. Herman Mawengkangselaku pembimbing utama dan kepada Prof. Dr. Iryanto, M. SI, selaku pembimbing anggota yang dengan penuh kesabaran serta membimbing penulis hingga selesainya tesis ini dengan baik.

Terimakasih yang tak terhingga dan penghargaan yang ssetinggi-tingginya penulis ucapkan kepada Prof. Dr. Muhammad Zarlis,Dr. Zakarias Situmorang, dan Dr. Syahril Efendi sebagai pembanding yang telah memberikan saran dan masukan serta arahan yang baik demi penyelesaian tesis ini.

Universitas Sumatera Utara, Staf Pegawai dan Administrasi pada Program Studi Magister (S2) Teknik Informatika Program Pascasarjana Fasilkom-TI Universitas Sumatera Utara yang telah memberikan bantuan dan pelayanan terbaik kapada penulis selama mengikuti perkuliahan.


(9)

Orang tua penulis. Ayahanda A. Nainggolan, Ibunda R. Rumahorbo dan segenap keluarga Abang/Kakakpenulisyang telah mendukung penulis dan terima kasih atas segala pengorbanannya, baik moril maupun materil.

Sahabat terkasih penulisBernard S. P. Siagian, ST. Terimakasih untuk segala doa, motivasi dan dukungan yang sangat berharga selama mengikuti perkuliahan hingga penyelesaian tesis ini.

Teman-teman seperjuangan angkatan 2012 Kom-B, untuk kebersamaan dan semangat menjalani perkuliahan dan dalam penyelesaian tesis ini.

Semua pihak yang tidak dapat penulis sebutkan satu persatu, terimakasih atas segala bantuan dan doa yang diberikan. Semoga karya ilmiah ini dapat bermanfaat bagi kemajuan ilmu pengetahuan dan pendidikan.

Medan, 28 Agustus 2014 Penulis

RENA NAINGGOLAN NIM :127038028


(10)

ABSTRAK

Salah satu teknik yang dikenal dalam Data Mining yaitu clustering. Pengertian

clustering keilmuan dalam data mining adalah pengelompokan sejumlah data atau objek ke dalam cluster (group) sehingga setiap dalam cluster tersebut akan berisi data yang semirip mungkin dan berbeda dengan objek dalam cluster yang lainnya.Ada dua jenis data clustering yang sering dipergunakan dalam proses pengelompokan data yaitu hierarchical (hirarki) data clustering dan non hierarchical (non hirarki) data

clustering. K-Means merupakan salah satu metode data clustering non hirarki yang berusaha mempartisi data yang ada ke dalam bentuk satu atau lebih cluste/kelompok. Metode K-means merupakan metode clustering yang paling sederhana dan umum. Hal ini dikarenakan K-means mempunyai kemampuan mengelompokkan data dalam jumlah yang cukup besar dengan waktu komputasi yang relatif cepat dan efisien. Namun, K-means mempunyai mempunyai kelemahan yang diakibatkan oleh penentuan pusat awal cluster. Hasil cluster yang terbentuk dari metode K-means ini sangatlah tergantung pada inisiasi nilai pusat awal cluster yang diberikan. Hal ini menyebabkan hasil clusternya berupa solusi yang sifatnya local optimal. Pada penelitian ini akan dilakukan modifikasi K-Mean Clustering untuk pencarian pusat cluster yang paling optimum berbasis Sum of Squared Error (SSE).Dari proses modifikasi ini, diharapkan pusat cluster yang diperoleh nantinya akan menghasilkancluster - cluster, dimana antar anggota cluster memiliki tingkat kemiripan yang tinggi.

Kata Kunci : Modifikasi Algoritma K-Means Clustering,Pusat Cluster, Sum of Squared Error(SSE)


(11)

MODIFIED ALGORITHM K-MEANS CLUSTERING BASED ON THE DETERMINATION CLUSTER CENTRE BASED

SUM OF SQUARED ERROR (SSE)

ABSTRACT

One of techniques popular inData Mining is clustering. Defenition clustering in scientific from data miningis some of data or objectsin one group or clusters into cluster so each cluster will containthedataas closely aspossibleanddifferent objects in another cluster. Thereare twomethodsof dataclusteringis often used inthe process ofgroupingthe datathat arehierarchical(hierarchy) andnon-hierarchical clusteringof data(non-hierarchical) clusteringof data. K-Means is one method fromnon-hierarchical clusteringof data this methodmake partition data theavailable datainonecluster ormore. MethodsK-Means clustering isthe mostsimple andgeneral. This is becauseK-means have abilityto groupingdata ina fairlylargeamountwith computingtimeisrelativelyfastandefficient. ButK-means hashadweakness becausebythe determination ofinitialclustercenters. The results ofthe clusterformed byK-means clustering methodis verydependenton theinitiationvalue ofthe starting pointcluster. This leads aclusterresultsbelocaloptimalsolution. In this research willbe modifiedK-Mean Clusteringforsearchthe clustercenters in the best optimal basedSumofSquaredError(SSE). From modificationprocess, be expectedclustercenterobtainedwill be result clusters-clusters, where theevery members cluster havea highdegree ofsimilarity.

Keyword : Modified Algorithm K-Means Clustering, Cluster Centre, Sum of Squared Error (SSE)


(12)

DAFTAR ISI

Halaman HALAMAN JUDUL

PENGESAHAN PERNYATAAN PERSETUJUAN PANITIA PENGUJI RIWAYAT HIDUP

UCAPAN TERIMA KASIH

ABSTRAK i

ABSTRACK ii

DAFTAR ISI iii

DAFTAR GAMBAR v

DAFTAR TABEL vi

BAB 1 PENDAHULUAN 1

1.1 Latar Belakang Masalah 1

1.2 Perumusan Masalah 3

1.3 Batasan Masalah 4

1.4 Tujuan Penelitian 4

1.5 Manfaat Penelitian 4

BAB 2 TINJAUAN PUSTAKA 5

2.1 Defenisi Data 5

2.1.1. Jenis Data Berdasarkan sifatnya 5 2.1.2. Jenis Data Menurut Subernya 7 2.1.3. Jenis Data Menurut Cara Memperolehnya 7 2.1.4. Jenis Data Menurut Waktu Pengumpulannya 7

2.2 Data Mining 8

2.3 Proses Data Mining 11 2.4 Clustering 12 2.5 Algoritma Clustering 14

2.5.1. Clustering Hirarki 19

2.5.2. Clustering Partisional (Partitional Clustering) 20

2.6 Sum Of Squared Error (SSE) 25

2.7 Distance Space Untuk Menghitung Jarak Antara Data

dan Centroid 26

2.7.1. Jarak Euclidean 26

2.7.2. Jarak Menhattan 27

2.7.3. Jarak Pearson 27

2.8 Riset Terkait 28

2.9 Perbedaan Dengan Riset Sebelumnya 29

BAB 3 METODOLOGI PENELITIAN 30


(13)

3.2 Transformasi Data 30

3.3 Perancangan Algoritma 31

3.4 Teknik Pengembangan 32

BAB 4 HASIL DAN PEMBAHASAN 34

4.1 Pendahuluan 34

4.2 Hasil Uji Coba 34

4.3 Data 34

4.4 Transformasi Data 35

4.5 Hasil Uji Coba 37

4.6 Solusi Pertama pada Iterasi Pertama 37 4.6.1. Pusat Cluster Pertama pada Solusi Pertama 37 4.6.2. Perhitungan Nilai SSE pada Iterasi Pertama 37 4.6.3. Pencapaian Nilai SSE Minimum pada Setiap Iterasi 39 4.7 Grafik Pencarian Nilai SSE Terbaik pada Setiap Iterasi 41 4.8 Grafik Perbandingan Nilai SSE Terbaik dan Terburuk 42 4.9 Pusat Cluster yang Paling Optimum 43

4.10 Jarak Euclidean 43

4.10.1. Perhitungan Jarak Setiap Data ke Pusat Cluster

Pada Iterasi Pertama 43

4.10.2. Perhitungan Jarak Setiap Data ke Pusat Cluster

Pada Iterasi Kedua 46

4.10.3. Perhitungan Jarak Setiap Data ke Pusat Cluster

Pada Iterasi Ketiga 50

4.11 Hasil Clustering Dengan Pusat Cluster yang Paling

Optimum 50

BAB 5 KESIMPULAN DAN SARAN 55

5.1 Kesimpulan 55

5.2 Saran 56

DAFTAR PUSTAKA LAMPIRAN


(14)

DAFTAR GAMBAR Nomor

Gambar

J u d u l Halaman

2.1. Perancangan Proses Data Mining 12

2.2. Contoh Proses Clustering 15

2.3 Flowhchart Algoritma Metode K-Means Clustering 23 3.1. Flowchart Modified K-Means Clustering Berbasis SSE 31

3.2. Langkah-langkah Penelitian 33

4.2. Grafik Pencarian Nilai SSE 42


(15)

DAFTAR TABEL Nomor

Tabel

J u d u l Halaman

2.1. Riset-Riset Terkait 28

4.1. Data Awal 35

4.2. Inisialisasi Data Wilayah Kota Asal 35

4.3 Inisialisasi Data Pekerjaan 36

4.4. Kesuluruhan Data yang Telah Diinisialisasikan 36 4.5. Titik Pusat Cluster Pada Solusi Pertama 37 4.6. Hasil Perhitungan Nilai SSE Pada Iterasi Pertama 38 4.7. Nilai SSE yang Paling Minimum Pada Iterasi Pertama 38

4.8. NIlai SSE dalam 20 Iterasi 39

4.9. Tabel Pencapaian Nilai SSE pada Setiap Iterasi 40 4.10. Pencapaian Nilai SSE Minimum pada Setiap Iterasi 41

4.11. Pusat Cluster Optimum 43

4.12. Jarak Setiap Data Pasien ke Titik Centroid pada Iterasi Ke-1 44 4.13. Pusat Cluster pada Iterasi Ke-2 46 4.14. Jarak Setiap Data Pasien ke Titik Centroid pada Iterasi Ke-2 48 4.15. Pusat Cluster pada Iterasi Ke-3 50


(16)

ABSTRAK

Salah satu teknik yang dikenal dalam Data Mining yaitu clustering. Pengertian

clustering keilmuan dalam data mining adalah pengelompokan sejumlah data atau objek ke dalam cluster (group) sehingga setiap dalam cluster tersebut akan berisi data yang semirip mungkin dan berbeda dengan objek dalam cluster yang lainnya.Ada dua jenis data clustering yang sering dipergunakan dalam proses pengelompokan data yaitu hierarchical (hirarki) data clustering dan non hierarchical (non hirarki) data

clustering. K-Means merupakan salah satu metode data clustering non hirarki yang berusaha mempartisi data yang ada ke dalam bentuk satu atau lebih cluste/kelompok. Metode K-means merupakan metode clustering yang paling sederhana dan umum. Hal ini dikarenakan K-means mempunyai kemampuan mengelompokkan data dalam jumlah yang cukup besar dengan waktu komputasi yang relatif cepat dan efisien. Namun, K-means mempunyai mempunyai kelemahan yang diakibatkan oleh penentuan pusat awal cluster. Hasil cluster yang terbentuk dari metode K-means ini sangatlah tergantung pada inisiasi nilai pusat awal cluster yang diberikan. Hal ini menyebabkan hasil clusternya berupa solusi yang sifatnya local optimal. Pada penelitian ini akan dilakukan modifikasi K-Mean Clustering untuk pencarian pusat cluster yang paling optimum berbasis Sum of Squared Error (SSE).Dari proses modifikasi ini, diharapkan pusat cluster yang diperoleh nantinya akan menghasilkancluster - cluster, dimana antar anggota cluster memiliki tingkat kemiripan yang tinggi.

Kata Kunci : Modifikasi Algoritma K-Means Clustering,Pusat Cluster, Sum of Squared Error(SSE)


(17)

MODIFIED ALGORITHM K-MEANS CLUSTERING BASED ON THE DETERMINATION CLUSTER CENTRE BASED

SUM OF SQUARED ERROR (SSE)

ABSTRACT

One of techniques popular inData Mining is clustering. Defenition clustering in scientific from data miningis some of data or objectsin one group or clusters into cluster so each cluster will containthedataas closely aspossibleanddifferent objects in another cluster. Thereare twomethodsof dataclusteringis often used inthe process ofgroupingthe datathat arehierarchical(hierarchy) andnon-hierarchical clusteringof data(non-hierarchical) clusteringof data. K-Means is one method fromnon-hierarchical clusteringof data this methodmake partition data theavailable datainonecluster ormore. MethodsK-Means clustering isthe mostsimple andgeneral. This is becauseK-means have abilityto groupingdata ina fairlylargeamountwith computingtimeisrelativelyfastandefficient. ButK-means hashadweakness becausebythe determination ofinitialclustercenters. The results ofthe clusterformed byK-means clustering methodis verydependenton theinitiationvalue ofthe starting pointcluster. This leads aclusterresultsbelocaloptimalsolution. In this research willbe modifiedK-Mean Clusteringforsearchthe clustercenters in the best optimal basedSumofSquaredError(SSE). From modificationprocess, be expectedclustercenterobtainedwill be result clusters-clusters, where theevery members cluster havea highdegree ofsimilarity.

Keyword : Modified Algorithm K-Means Clustering, Cluster Centre, Sum of Squared Error (SSE)


(18)

BAB I PENDAHULUAN

1.1. Latar Belakang

Saat ini, konsep Data Mining semakin dikenal sebagai tools penting dalam manajemen informasi karena jumlah informasi yang semakin besar jumlahnya. Data Miningsendiri sering disebut sebagai knowledge discovery in database (KDD) adalah kegiatan yang meliputi pengumpulan, pemakaian data historis untuk menemukan keteraturan, pola hubungan dalam set data berukuran besar. Output dari Data Mining

ini dapat digunakan untuk pengambilan keputusan di masa depan (Alfina, et al. 2012).

Salah satu teknik yang dikenal dalam Data Mining yaitu clustering. Pengertian

clusteringkeilmuan dalam Data Mining adalah pengelompokan sejumlah data atau objek ke dalam cluster (group) sehingga setiap dalam cluster tersebut akan berisi data yang semirip mungkin dan berbeda dengan objek dalam cluster yang lainnya. Sampai saat ini, para ilmuwan masih terus melakukan berbagai usaha untuk melakukan perbaikan model cluster dan menghitung jumlah cluster yang optimal sehingga dapat dihasilkan cluster yang paling baik (Alfina, et al. 2012).

Clustering adalah suatu teknik dalam Data Mining yang digunakan untuk memasukkan data ke dalam grup yang bersesuaian tanpa pengetahuan yang mendalam tentang grup tersebut (Santosa, 2007). Clustering digunakan untuk menganalisis pengelompokkan berbeda terhadap data, menyerupai klasifiaksi, namum pengelompokkan belum di definisikan sebelum dijalankannya toolData Mining. Prinsip dari clustering adalah memaksimalkan kesamaan antar anggota suatu kelas dan meminimumkan kesamaan antar cluster yang berbeda.

Adapun tujuan dari clustering ini adalah untuk meminimalisasikan objective function yang diset dalam proses clustering, yang pada umumnya berusaha meminimalisasikanvariasi antar cluster (Agusta, 2007).


(19)

Ada dua metodeclustering yang kita kenal, yaitu hierarchical clusteringdan

partitioning clustering. Metode hierarchical clusteringsendiri terdiri dari complete linkage clustering, single linkage clustering, average linkage clusteringdan centroid linkage clustering. Sedangkan metode partitioning clusteringsendiri terdiri dari K-Means dan Fuzzy K-Means. Metode K-Meansmerupakan metode clusteringyang paling sederhana dan umum. Hal ini dikarenakan K-Meansmempunyai kemampuan mengelompokkan data dalam jumlah yang cukup besar dengan waktu komputasi yang relatif cepat dan efisien. Algoritma K-Means merupakan satu algoritma yang sering kali digunakan di dalam teknik pengelompokan karena membuat suatu perkiraan yang efisien dan tidak memerlukan banyak parameter. K-Means menggunakan k kelompok yang telah ditetapkan (k kelompok pertama sebagai centroid) (Jipkate & Gohokar 2012).

K-Meansmerupakan metode untuk mengklasifikasikan atau mengelompokkan objek-objek (data) ke dalam K-group (cluster) berdasarkan atribut tertentu. Pengelompokan data dilakukan dengan memperhitungkan jarak terdekat antara data dengan pusat

cluster . Prinsip utama dari metode ini adalah menyusun nilai K buah centroid atau rata-rata (mean) dari sekumpulan data berdimensi N, dimana metode ini mensyaratkan nilai K sudah diketahui sebelumnya. Algoritma K-Means dimulai dengan pembentukan prototypecluster diawal kemudian secara iterative prototype cluster

tersebut diperbaiki sehingga tercapai kondisi konvergen, yaitu kondisi dimana tidak terjadi perubahan yang signifikan pada prototype cluster. Perubahan ini diukur dengan menggunakan fungsi objektif D yang umumnya di defenisikan sebagai jumlah atau rata-rata jarak tiap item data dengan centroid groupnya.

Namun, K-Meansmempunyai mempunyai kelemahan yang diakibatkan oleh penentuan pusat awal cluster. Hasil clusteryang terbentuk dari metode K-Meansini sangatlah tergantung pada inisiasi nilai pusat awal clusteryang diberikan. Hal ini menyebabkan hasil clusternya berupa solusi yang sifatnya local optimal(Alfina, et al.

2012).

Untuk itu, algoritma K-Meansperlu dimodifikasi dengan cara mencari nilai Sum of Squared Error terlebih dahulu. Dari proses pengelompokan ini nantinya diharapkan akan diketahui kemiripan atau kedekatan antar data sehingga dapat dikelompokkan ke dalam beberapa cluster, dimana antar anggota clustermemiliki tingkat kemiripan yang tinggi.


(20)

Menurut Mahrus & Khotimah (2012), performansi metode clusteringdapat dilihat dari nilai Sum Of Square Error (SSE) dari clusteryang dihasilkan. Nilai SSE mempresentasikan homogenitas intra cluster, semakin kecil nilaiSSE maka semakin homogeny data dalam satu cluster.

Atas dasar ide tersebut, peneliti melakukan modifikasi terhadap metode K-MeansClustering untuk mencari nilai dari Sum of Squared Error (SSE) yang paling minimum, sehingga akan diperoleh titik pusat cluster yang paling optimal.

1.2.Perumusan Masalah

Pusat clusteradalah aspek yang sangat penting dalam system clustering karena pusat

cluster sangat berpengaruh terhadap konsistensi, ketepatan dan kualitas dari hasil

cluster yang terbentuk. Penelitian ini melakukan modifikasi algoritma K-MeansClustering dengan nilai Sum of Squared Error (SSE)dalam penentuan pusat

cluster, sehingga diperoleh pusat clusteryang paling optimum. 1.3.Batasan Masalah

Luasnya cakupan masalah yang berkaitan degan penentuan pusat cluster, maka pembatasan masalah yang dilakukan dalam penelitian ini adalah:

1. Metode MK-Means Clustering

a. Jumlah cluster yang digunakan sebanyak 3 cluster. b. Jumlah iterasi sebanyak 20.

c. Untuk menghitung jarak antara data dan centroid menggunakan rumus

Euclidean Distance Space. Input system adalah atribut yang berjumlah sebanyak 3 atribut.

2. Output system adalah pusat cluster yang paling optimal. 1.4.Tujuan Penelitian

Tujuan dari penulisan penelitian ini adalah untuk mencari pusat cluster yang paling optimum dengan melakukan modifikasi terhadap algoritma K-Mean Clustering


(21)

1.5. Manfaat Penelitian

Manfaat yang diharapkan dalam penelitian ini adalah sebagai berikut:

1. Dapat mengetahui sejauh mana tingkat optimasi pusat cluster yang dicapai dengan melakukan modifikasi algoritma K-MeansClustering dengan mencari nilai Sum Of Squared Error (SSE).

2. Hasil penelitian ini dapat menjadi rujukan para pembaca dalam memahami penerapan metode pencarian nilai Sum of Squared Error(SSE)

terhadap penentuan pusat cluster dalam metode K-MeansClustering untuk menentukan pusat cluster.


(22)

BAB II

TINJAUAN PUSTAKA

2.1. Defenisi Data

Dalam Webster’s New World’s Dictionary tertulis bahwa datum: something known or assumed. Artinya, datum (bentuk tunggal data) merupakan suatu yangdiketahui/dianggap. Dengan demikian, data dapat memberi gambaran tentang suatukeadaan atau persoalan. Sedangkan, data menurut kamus Oxford Dictionary adalah The Facts. Jadi, dapat disimpulkan bahwa data adalah sesuatu yang nyata diketahuiatau dianggap yang dipakai untuk keperluan suatu analisa, diskusi, presentasi ilmiah atau tes statistic. Data dapat dibagi menjadi 4 bagian, yaitu: (Ong, 2013)

2.1.1 Jenis Data Berdasarkan Sifatnya

Jenis-jenis data dapat dibagi menurut sifatnya , menurut sumbernya, menurut cara memperolehnya dan menurut waktu pengumpulannya . Menurut sifatnya data dapat terbagi menjadi dua jenis, yaitu data kualitatif (non-metrik) dan data kauntitatif (metrik). Kemudian jenis data kualitatif terbagi lagi menjadi dua jenis, yaitu data nominal dan data ordinal. Begitu pula dengan jenis data kuantitatif terbagi menjadi dua jenis, yaitu data interval dan data rasio (Hidayat & Istiadah 2011).

a. Data Kualitatif

Data kualitatif secara sederhana dapat disebut data yang bukan berupa angka. Ciri utama data kualitatif didapat dengan cara menghitung, sehingga tidak memiliki nilai desimal. Selain itu data kualitatif memiliki ciri-ciri tidak bisa dilakukan operasi matematika, seperti penambahan, pengurangan, perkalian dan pembagian.

Contoh data kualitatif adalah data gender, data golongan darah, data tempat tinggal atau data jenis pekerjaan. Agar dapat dilakukan proses pada data kualitatif atau non metric, data tersebut harus diubah ke dalam bentuk angka, proses ini dinamakan kategorisasi. Data kualitatif dibedakan menjadi dua jenis, yaitu data nominal dan data ordinal (Santoso, 2010).


(23)

Data Nominal adalah jenis data kualitatif yang digunakan mengidentifikasi, mengklasifikasi, atau membedakan objek. Data nominal merupakan data yang paling rendah dalam level pengukuran data. Semua data memiliki posisi setara dalam arti tidak ada data yang memiliki tingkat yang lebih atau kurang dibandingkan dengan data yang lain. Jenis data nominal ini tidak memiliki jarak, urutan dan titik origin (Hidayat, 2011).

Data Ordinal adalah jenis data kualitatif namun memiliki level lebih tinggi dari data nominal. Data ordinal memiliki karakteristik nominal tapi terdapat perbedaan derajat, urutan, atau peringkat dalam objek tersebut (posisi data tidak setara) (Hidayat & Istiadah 2011).

b. Data Kuantitatif

Data kuantitatif dapat disebut sebagai data berupa angka dalam arti sebenarnya. Jadi, berbagai jenis operasi matematika dapat dilakukan pada data kuantitatif. Data kuantitatif merupakan data yang didapat dengan jalan mengukur sehingga bisa mempunyai nilai desimal. Contoh data kuantitatif adalah tinggi badan, usia, penjualan barang, dan sebagainya. Sebagai contoh, tinggi badan seseorang bisa bernilai 165 cm atau 165.5 cm. Seperti pada jenis data kualitatif, jenis data kuantitatif juga terbagi menjadi dua, yaitu data interval dan data rasio (Santoso, 2010).

Data interval menempati level pengukuran data yang lebih tinggi dari data ordinal karena selain bisa bertingkat urutannya, urutan tersebut juga bisa dikuantitatifkan serta memiliki indikator jarak. Contohnya seperti pengukuran temperatur sebuah ruangan. Interval temperature ruangan tersebut adalah:

a. Cukup panas jika temperatur antara 50 0C – 80 0C. b. Panas jika temperatur antara 80 0C – 110 0C.

c. Sangat panas jika temperatur antara 110 0C – 140 0C.

Dalam kasus di atas, data temperatur bisa dikatakan data interval karena data mempunyai interval (jarak) tertentu, yaitu 300 C. Data rasio merupakan data dengan tingkat pengukuran paling tinggi diantara jenis data lainnya. Data rasio adalah data yang bersifat angka dalam arti yang sebenarnya, bukan kategori seperti data nominal dan data ordinal sehinggga dapat dilakukan operasi matematika seperti penambahan, pengurangan, perkalian, dan pembagian. Perbedaan dengan data interval adalah data rasio memiliki indikator titik origin yang tidak dapat berubah (absolute). Contoh dari data rasio adalah jumlah suatu produk, jika jumlah produk 0 (nol) berarti memang


(24)

tidak ada produk atau contoh lainnya adalah berat badan dan tinggi badan, pengukuran-pengukurannya mempunyai nilai 0 (nol) yang sebenarnya. Misalnya jika berat badan 0 berarti memang tanpa berat.

2.1.2. Jenis Data Menurut Sumbernya

Pembagian jenis data menurut sumbernya didasarkan pada sumber perolehan data tersebut, yaitu data internal dan data eksternal (Ong, 2013).Data internal adalah data yang dikumpulkan oleh suatu organisasi untuk menggambarkan keadaan atau kegiatan organisasi yang bersangkutan serta berguna untuk keperluan kegiatan harian dan pengawasan internal. Misalnya, data penjualan, data produksi suatu perusahaan, data keuangan, data kepegawaian, dan lain sebagainya.

Data eksternal adalah data yang dikumpulkan untuk menggambarkan suatu keadaan atau kegiatan di luar organisasi tersebut. Contoh dari data eksternal seperti data jumlah penduduk dan data pendapatan nasional yang didapat dari kantor pusat statistik setempat. Suatu perusahaan memerlukan data eksternal seperti jumlah penduduk untuk memprediksi potensi permintaan, sedangkan data pendapatan nasional utnuk menentukan tingkat daya beli masyarakat yang berguna untuk dasar kebijakan tingkat harga.

2.1.3. Jenis Data Menurut Cara Memperolehnya

Berdasarkan cara memperolehnya, data dapat dibedakan menjadi dua jenis, yaitu data primer dan data sekunder (Ong, 2013).

Data primer adalah data yang dikumpulkan dan diolah sendiri oleh organisasi atau perorangan langsung dari objeknya. Misalnya suatu perusahaan ingin mengetahui konsumsi rata-rata suatu produk terhadap penduduk disuatu daerah dengan cara melakukan wawancara langsung kepada penduduk setempat.

Data sekunder adalah data yang diperoleh dalam bentuk jadi dan telah diolah oleh pihak lainnya. Biasanya data sekunder ini dalam bentuk publikasi.

2.1.4. Jenis Data Menurut Waktu Pengumpulannya

Berdasarkan waktu pengumpulannya, data dapat dibedakan menjadi dua jenis, yaitu data cross sectiondan data berkala (time series) (Ong, 2013).

Data cross sectionadalah data yang dikumpulkan dalam suatu periode tertentu, biasanya menggambarkan keadaan atau kegiatan dalam periode tersebut. Misalnya, hasil sensus penduduk tahun 2014 menggambarkan keadaan Indonesia pada tahun 2014 menurut, umur, jenis kelamin, agama, tingkat pendidikan, dan sebagainya.


(25)

Data berkala (time series) adalah data yang dikumpulkan dari waktu ke waktu. Tujuannya adalah untuk menggambarkan perkembangan suatu kegiatan dari waktu ke waktu. Misalnya, perkembangan produksi di suatu perusahaan selama lima tahun terakhir, perkembangan penjualan produk selama lima tahun terakhir, dan lain sebagainya. Jenis data ini juga sering disebut sebagai data historis.

2.2. Data Mining

Data Miningadalah suatu metode pengolahan data untuk menemukan pola yang tersembunyi dari data tersebut. Hasil dari pengolahan data dengan metode Data Miningini dapat digunakan untuk mengambil keputusan di masa depan. Data Mining

ini juga dikenal dengan istilah pattern recognition (Ong, 2013).

Data Mining, sering juga disebut knowledge discovery in database (KDD), adalah kegiatan yang meliputi pengumpulan, pemakaian data historis untuk menemukan keteraturan, pola atau hubungan dalam set data berukuran besar. Keluaran dari Data Mining ini biasa dipakai untuk memperbaiki pengambilan keputusan di masa depan. Sehingga istilah pattern recognition sekarang jarang digunakan karena ia termasuk bagian dari Data Mining (Santosa, 2007).

Data Mining suatu proses kegiatan yang berulang-ulang pada analisis database dalam jumlah besar, dengan tujuan untuk melakukan penggalian informasi dan pengetahuan yang dapat membuktikan keakuratan dan potensi yang berguna bagi pengetahuan pekerja yang terlibat dalam pengambilan keputusan dan pemecahan masalah. Istilah data mining itu merujuk pada keseluruhan proses yang terdiri dari pengumpulan data analisis, pengembangan model pembelajaran induktif dan adopsi keputusan praktis seta tindakan berdasarkan pengetahuan yang diperoleh (Vercilles, 2009).Kegiatan data mining dapat dibagi kedalam dua inti penyelidikan utama, sesuai dengan tujuan utama dari analisis, yaitu: interpretasi dan prediksi (Vercilles, 2009).

1. Interpretasi

Tujuan interpretasi adalah untuk mengidentifikasi pola yang teratur dalam data dan untuk mengekspresikan data melalui peraturan dan kriteria yang dapat dengan mudah dipahami oleh para ahli dalam domain aplikasi. Contoh;


(26)

2. Prediksi

Tujuan dari prediksi adalah untuk mengantisipasi atau memprediksi nilai suatu variable random yang akan menggambarkan kondisi dimasa mendatang atau memperkirakan kemungkinan peristiwa masa depan. Contoh; Classification, Regression, Time Series Analysis.

Berdasarkan tugas dan tujuan analisis, proses data mining dapat dibagi menjadi dua kategori utama, Tergantung pada adanya target variabel dan metode belajar (learning)

yaitu antara proses belajar yang diawasi (supervised) dan tanpa pengawasan

(unsupervised) (Vercilles, 2009).

1. Belajar yang diawasi (supervised learning)

Dalam analisis supervised learning, atribut target/label menggambarkan kelas yang dimiliki setiap catatan. Atau dengan kata lain metode belajar dengan adanya latihan (training) dan pelatih/label. Contoh: Regresi, analisa Deskriminan, Artificial Neural Network dan Support Vektor Machine.

2. Belajar tanpa pengawasan (unsupervised learning).

Tanpa pengawasan analisis belajar tidak dipandu oleh atribut target/label. Oleh karena itu, data mining dalam hal ini ditujukan untuk menemukan pola berulang dan kedekatan dalam kumpulan data. Atau dengan kata lain metode belajar tanpa adanya latihan (training) dan pelatih/label. Contoh clustering dan

Self Organization Map (SOM).

Data Miningmerupakan metode pengolahan data berskala besar oleh karena itu Data Mining ini memiliki peranan penting dalam bidang industri, keuangan, cuaca, ilmu dan teknologi. Secara umum kajian Data Mining membahas metode-metode seperti, clustering, klasifikasi, regresi, seleksi variable, dan market basket analisis. (Santosa, 2007). Data Mining dibagi menjadi beberapa kelompok berdasarkan tugas yang dapat dilakukan, yaitu (Paulanda, 2012) :

1. Deskripsi (Description)

Terkadang penelitian analisis secara sederhana ingin mencoba mencari cara untuk menggambarkan pola dan kecenderungan yang terdapat dalam data. Sebagai contoh, petugas pengumpulan suara mungkin tidak dapat menemukan keterangan atau fakta bahwa siapa yang tidak cukup profesional akan sedikit didukung dalam pemilihan presiden. Deskripsi dari pola dan kecenderungan sering memberikan kemungkinan penjelasan untuk suatu pola atau kecenderungan.


(27)

2. Estimasi (Estimation)

Estimasi hampir sama dengan klasifikasi, kecuali variabel target estimasi lebih ke arah numerik daripada ke arah kategori. Model dibangun menggunakan

recordlengkap yang menyediakan nilai dari variabel target sebagai nilai prediksi. Selanjutnya, pada peninjauan berikutnya estimasi nilai dari variabel target dibuat berdasarkan nilai variabel prediksi. Sebagai contoh, akan dilakukan estimasi tekanan darah sistolik pada pasien rumah sakit berdasarkan umur pasien, jenis kelamin, indeks berat badan, dan level sodium darah. Hubungan antara tekanan darah sistolik dan nilai variabel prediksi dalam proses pembelajaran akan menghasilan model estimasi. Model estimasi yang dihasilkan dapat digunakan untuk kasus baru lainnya.

3. Prediksi (Prediction)

Prediksi hampir sama dengan klasifikasi dan estimasi, kecuali bahwa dalam prediksi nilai dari hasil akan ada di masa datang. Contoh prediksi dalam bisnis dan penelitian adalah :

a. Prediksi harga beras dalam tiga bulan yang akan datang.

b. Prediksi persentase kenaikan kecelakaan lalu lintas tahun depan jika batas bawah kecepatan dinaikkan.

Beberapa metode dan teknik yang digunakan dalam klasifikasi dan estimasi dapat pula digunakan (untuk keadaan yang tepat) untuk prediksi.

4. Klasifikasi (Classification)

Dalam klasifikasi, terdapat target variabel kategori. Sebagai contoh, penggolongan pendapatan dapat dipisahkan dalam tiga kategori, yaitu pendapatan tinggi, pendapatan sedang dan pendapatan rendah.

Berikut contoh dari Klasifikasi:

a. Menentukan apakah suatu transaksi kartu kredit merupakan transaksi yang curang atau bukan.

b. Memperkirakan apakah suatu pengajuan hipotek oleh nasabah merupakan suatu kredit yang baik atau buruk.

c. Mendiagnosis penyakit seorang pasien untuk mendapatkan kategori penyakit apa.


(28)

5. Pengklusteran (Clustering)

Pengklusteran merupakan pengelompokkan record, pengamatan atau memperhatikan dan membentuk kelas objek-objek yang memiliki kemiripan.

clusteradalah kumpulan recordyang memiliki kemiripan satu dengan yang lainnya dan memiliki ketidakmiripan dengan record-recorddalam clusterlain. Pengklusteran berbeda dengan klasifikasi yaitu tidak adanya variabel target dalam pengklusteran. Pengklusteran tidak mencoba untuk melakukan klasifikasi, mengestimasi, atau memprediksi nilai dari variabel target. Akan tetapi, algoritma pengklusteran mencoba untuk melakukan pembagian terhadap keseluruhan data menjadi kelompok-kelompok yang memiliki kemiripan (homogen), yang mana kemiripan recorddalam satu kelompok akan bernilai maksimal, sedangkan kemiripan dengan recorddalam kelompok lain akan bernilai minimal.

Contoh pengklusteran dalam bisnis dan penelitian adalah :

a. Melakukan pengklusteran terhadap ekspresi dari gen, untuk mendapatkan kemiripan perilaku dari gen dalam jumlah besar.

b. Untuk tujuan audit akuntansi, yaitu melakukan pemisahan terhadap perilaku finansial dalam keadaan baik atau mencurigakan.

c. Asosiasi (Assosiation)

d. Tugas asosiasi dalam Data Miningadalah menemukan atribut yang muncul dalam satu waktu. Dalam dunia bisnis lebih umum disebut analisis keranjang belanja. Contoh asosiasi dalam bisnis dan penelitian adalah :

a. Menemukan barang dalam supermarket yang dibeli secara bersamaan dan barang yang tidak pernah dibeli secara bersamaan.

b. Mendapatkan kelompok-kelompok konsumen untuk target pemasaran dari suatu produk bagi perusahaan yang tidak memiliki dana pemasaran yang besar.

c. Meneliti jumlah pelanggan dari perusahaan telekomunikasi seluler yang diharapkan untuk memberikan respons posistif terhadap penawaran upgrade layanan yang diberikan.

2.3. Proses Data Mining

Berikut ini adalah langkah-langkah dalam perancangan proses model pembelajaran teknik Data Mining, ditunjukan pada gambar 2.1


(29)

Gambar 2.1. Perancangan Proses Data Mining

Sumber:(Budiman, 2012) 2.4.Clustering

Salah satu teknik yang dikenal dalam Data Mining yaitu clustering. Pengertian

clusteringkeilmuan dalam Data Mining adalah pengelompokan sejumlah data atau objek ke dalam cluster(group) sehingga setiap dalam clustertersebut akan berisi data yang semirip mungkin dan berbeda dengan objek dalam clusteryang lainnya. Sampai saat ini, para ilmuwan masih terus melakukan berbagai usaha untuk melakukan perbaikan model clusterdan menghitung jumlah clusteryang optimal sehingga dapat dihasilkan clusteryang paling baik. Dalam clustering diupayakan untuk menempatkan objek yang mirip (jaraknya dekat) dalam satu klaster dan membuat jarak antar klaster sejauh mungkin.

Hermansyah, A (2001) menyatakan bahwa clustering adalah proses pengelompokan objek data ke dalam kelompok yang sama. Klaster adalah sekumpulan objek data yang memiliki kesamaan satu sama lain di satukan dalam kelompok yang sama dan tidak memiliki kesamaan dengan objek data yang lain (Hosseini, 2010). Dalam clustering

diupayakan untuk menempatkan objek yang mirip (jaraknya dekat) dalam satu cluster

dan membuat jarak antar cluster sejauh mungkin. Clustering merupakan teknik

Prediction and interpretation Model Development

Selection of Atributes

Exploratory analysis

Data mart

Data gathering and itegration

Objectives defenition

Exploratory analysis


(30)

unsupervised learning yang tidak memerlukan label ataupun keluaran dari setiap data (Santoso, 2007).

Ada dua pendekatan dalam clustering yaitu partisi dan hirarki. Dalam partisi pengelompokan objek dimasukan ke dalam k cluster, dapat dilakukan dengan menentukan pusat cluster awal lalu dilakukan realokasi objek berdasarkan kriteria tertentu sampai dicapai pengelompokan yang optimum. Dalam cluster hirarki dimulai dengan membuat m cluster dimana setiap cluster beranggotakan satu objek dan berakhir dengan satu cluster dimana anggota m objek, pada setiap tahap prosedurnya, satu cluster digabung dengan satu cluster lain, lalu dapat dipilih cluster yang diinginkan dengan menentukan cut off pada tingkat tertentu (Santoso, 2007).

Clustering melakukan pengelompokan data tanpa berdasar pada kelas data tertentu yang sudah ditetapkan dari awal. Proses ini sangat berbeda dengan proses pada

classification yang pada awal proses harus memberikan kelas-kelas data. Sehingga clustering sering disebut dengan pengelompokan data yang tidak terstruktur.

2.4.1. Ciri- ciri Cluster

Menurut Santoso, 2002, ciri-ciri Cluster adalah:

1. Homogenitas (kesamaan) yang tinggi antar anggota dalam satu cluster (Within Cluster).

2. Heterogenitas (perbedaan) yang tinggi antar cluster

yang satu dengan cluster yang lainya (Between Cluster)

2.4.2. Istilah penting dalam Cluster

1. Skedul Aglomerasi (Aglomeration Schedule), ialah jadwal yang memberikan informasi tentang objek atau kasus yang akan dikelompokkan pada setiap tahap pada suatu proses analisis cluster dengan metode hierarki.

2. Rata-rata Cluster (ClusterCentroid), ialah nilai rata-rata variabel dari semua objek atau observasi dalam cluster tertentu.

3. Pusat Cluster (Cluster Centers), ialah titik awal dimulainya pengelompokan di dalam cluster non hierarki.

4. Keanggotaan Cluster (ClusterMemberships), ialah keanggotaan yang menunjukan cluster untuk setiap objek yang menjadi anggotanya.

5. Dendogram, dapat disebut juga dengan grafik pohon, yaitu output SPSS yang menggambarkan hasil analisis cluster yang dilakukan peneliti. Garis vertikal atau tegak menunjukan cluster yang digabung bersama. Posisi garis pada skala


(31)

menunjukan jarak untuk mana cluster digabung. Dendogram harus dibaca dari kiri ke kanan.

6. Distances Between Cluster Centers, ialah jarak yang menunjukan bagaimana terpisahnya pasangan individu cluster (Supranto, 2004).

2.5.Algoritma Clustering (Clustering Algorithm)

Data Clusteringmerupakan salah satu metode Data Mining yang bersifat tanpa arahan

(unsupervised). K-Means merupakan salah satu metode data Clustering Non Hirarki

yang berusaha mempartisi data yang ada ke dalam bentuk satu atau lebih cluster. Metode ini mempartisi data ke dalam clustersehingga data yang memiliki karakteristik yang sama dikelompokkan ke dalam satu clusteryang sama dan data yang mempunyai karakteristik yang berbeda dikelompokkan ke dalam kelompok yang lain. Adapun tujuan dari data clusteringini adalah untuk meminimalisasikan objective functionyang diatur dalam proses clustering, yang pada umumnya berusaha meminimalkan variasi di dalam suatu clusterdan memaksimalkan variasi antar cluster

(Heryanto, et al. 2013).

Pada dasarnya clustering merupakan suatu metode untuk mencari dan mengelompokkan data yang memiliki kemiripan karakteriktik (similarity) antara satu data dengan data yang lain. Clusteringmerupakan salah satu metode Data Miningyang bersifat tanpa arahan (unsupervised), maksudnya metode ini diterapkan tanpa adanya latihan (training) dan tanpa ada guru (teacher)serta tidak memerlukan target output. Dalam Data Mining ada dua jenis metode clustering yang digunakan dalam pengelompokan data, yaitu HierarchicalClusteringdan Non HierarchicalClustering

(Santosa, 2007).

Cluster memegang peran penting dalam pengklasifikasian obyek. Bergantung pada aplikasinya, obyek biasa berupa sinyal, pelanggan, pasien, berita, tanaman, dan lain-lain. Teknik clustering adalah teknik nonparametric yang sangat banyak diaplikasikan

dalam kasus nyata. Teknik cluster dikelompokkan ke dalam dua kelas besar : Partioning Cluster dan Hierarcichal Cluster. Ada dua

macam teknik cluster yang cukup sering dipakai. Yang pertama adalah K-Means

(mewakili Partitioning Cluster atau Non Hierarcichal) dan yang berikutnya adalah


(32)

Tujuan utama dari metoda klaster adalah pengelompokan sejumlah data/obyek ke dalam cluster (group) sehingga setiap klaster akan berisi data yang semirip mungkin. Ini berarti obyek dalam satu klaster sangat mirip satu sama lain dan berbeda dengan obyek dalam klaster-klaster yang lain (Santosa, 2007)

Gambar 2.2 Contoh Proses Clustering

Sumber : (Nugraheni, 2011)

Ada dua metode Clustering yang kita kenal, yaitu Hierarchical Clustering dan

Partitioning Clustering. Metode Hierarchical Clusteringsendiri terdiri dari Complete Linkage Clustering, Single Linkage Clustering, Average Linkage Clusteringdan

Centroid Linkage Clustering. Sedangkan metode Partitioningsendiri terdiri dari K-Means dan Fuzzy K-Means (Alfina, et al. 2012).

Hierachical Clusteringadalah suatu metode pengelompokan data yang dimulai dengan mengelompokkan dua atau lebih objek yang memiliki kesamaan paling dekat. Kemudian proses diteruskan ke objek lain yang memiliki kedekatan kedua. Demikian seterusnya sehingga cluster akan membentuk semacam pohon dimana ada hierarki (tingkatan) yang jelas antar objek, dari yang paling mirip sampai yang paling tidak mirip. Secara logika semua objek pada akhirnya hanya akan membentuk sebuah

cluster. Dendogram biasanya digunakan untuk membantu memperjelas proses hierarki tersebut (Santoso, 2010).

Berbeda dengan metode Hierarchical Clustering, metode Non HierarchicalClusteringjustru dimulai dengan menentukan terlebih dahulu jumlah

cluster yangdiinginkan (dua cluster, tiga cluster, atau lain sebagainya). Setelah jumlah

clusterdiketahui, baru proses cluster dilakukan tanpa mengikuti proses hierarki. Metode inibiasa disebut dengan K-MeansClustering (Santoso, 2010).


(33)

2.5.1. Clustering Hirarkhi (Hierarchical Clustering)

Clusteringhirarkhi membangun sebuah hirarkhi clusteratau dengan kata lain sebuah pohon cluster, yang juga dikenal sebagai dendrogram. Setiap node

clustermengandung clusteranak; cluster-cluster saudara yang membagi point yang ditutupi oleh induk mereka. Metode-metode clusteringhirarkhi dikategorikan ke dalam agglomerative (bawah-atas) dan idivisive (atas-bawah) (Paulanda, 2012).

Clustering agglomerative dimulai dengan clustersatu point (singleton) dan secara berulang mengabungkan dua atau lebih clusteryang paling tepat. Cluster divisive dimulai dengan satu clusterdari semua point data dan secara berulang membagi

clusteryang paling tepat. Proses tersebut berlanjut hingga kriteria penghentian (seringkali, jumlah k yang diperlukan dari cluster) dicapai. Kelebihan clusterhirarkhi meliputi :

1. Fleksibilitas yang tertanam mengenai level granularitas. 2. Kemudahan menangani bentuk-bentuk kesamaan atau jarak. 3. Pada akhirnya, daya pakai pada tipe-tipe atribut apapun Kelemahan dari clusteringhirarkhi berhubungan dengan :

1. Ketidakjelasan kriteria terminasi.

2. Terhadap perbaikan hasil clustering, sebagian besar algoritma hirarkhi tidak mengunjungi kembali cluster-clusternya yang telah dikonstruksi.

Untuk clusteringhirarki, menggabungkan atau memisahkan subset dari point-point

dan bukan point-point individual, jarak antara point-point individu harus digeneralisasikan terhadap jarak antara subset.

Ukuran kedekatan yang diperoleh disebut metrik hubungan. Tipe metrik hubungan yang digunakan secara signifikan mempengaruhi algortima hirarkhi, karena merefleksikan konsep tertentu dari kedekatan dan koneksitas. Metrik hubungan antar

clusterutama (Paulanda, 2011) termasuk hubungan tunggal, hubungan rata-rata dan hubungan sempurna.

Dalam clustering hirarki kita hitung jarak masing-masing obyek dengan setiap obyek yang lain. Selanjutnya kita temukan pasangan obyek yang jaraknya dekat. Sehingga tiap obyek akan berpasangan dengan satu obyek atau kelompok obyek yang lain yang paling dekat jaraknya. Langkah-langkah yang perlu dilakukan untuk melakukan


(34)

a. Kelompokkan setiap obyek ke dalam kelompok/clusternya sendiri.

b. Temukan pasangan paling mirip untuk dimasukkan ke dalam cluster yang sama dengan melihat data dalam matriks kemiripan (resemblance).

c. Gabungkan kedua obyek dalam satu cluster. d. Ulangi sampai tersisa hanya satu cluster.

Clusteringhirarkhi membangun sebuah hirarkhi clusteratau dengan kata lain sebuah pohon cluster, yang juga dikenal sebagai dendrogram. Setiap nodeclustermengandung

clusteranak; cluster-cluster saudara yang membagi point yang ditutupi oleh induk mereka. Metode-metode clusteringhirarkhi dikategorikan ke dalam

agglomerative(bawah-atas) dan idivisive (atas-bawah) . Clustering agglomerative

dimulai dengan clustersatu point (singleton) dan secara berulang mengabungkan dua atau lebih clusteryang paling tepat. Clusterdivisivedimulai dengan satu clusterdari semua point data dan secara berulang membagi clusteryang paling tepat. Proses tersebut berlanjut hingga kriteria penghentian (seringkali, jumlah k yang diperlukan dari cluster) dicapai (Paulanda, 2012).

Untuk clusteringhirarkhi, menggabungkan atau memisahkan subset dari point-point

dan bukan point-point individual, jarak antara point-point individu harus digeneralisasikan terhadap jarak antara subset (Paulanda, 2012).

Ukuran kedekatan yang diperoleh disebut metrik hubungan. Tipe metrik hubungan yang digunakan secara signifikan mempengaruhi algortima hirarkhi, karena merefleksikan konsep tertentu dari kedekatan dan koneksitas. Metrik hubungan antar

clusterutama (termasuk hubungan tunggal, hubungan rata-rata dan hubungan sempurna).

a. Single Lingkage Clustering (Pautan Tunggal)

Metode ini didasarkan pada jarak minimum. Dimulai dengan dua objek yang dipisahkan dengan jarak paling pendek, maka keduanya akan ditempatkan pada

cluster pertama, dan seterusnya. Metode ini dikenal pula dengan nama pendekatan tetangga terdekat.

Metode Pautan Tunggal (single lingkage) akan mengelompokan dua objek yang mempunyai jarak terdekat dahulu. Jadi pada setiap tahapan, banyaknya cluster

berkurang satu. Secara formal dua buah cluster Br dan Bs, jarak antara Br dan Bs misalkan h (Br, Bs) didefinisikan sebagai:


(35)

Hasil Single Linkage Clustering dapat disajikan dalam bentuk Dendogram atau diagram pohon. Cabang-cabang tersebut bertemu bersama-sama (menggabung) pada simpul posisinya sepanjang suatu sumbu jarak (kemiringan) menunjukan tingkat dimana penggabungan terjadi. Input untuk algoritma single linkage bisa berujud jarak atau similarities antara pasangan-pasangan dari objek-objek. Kelompok-kelompok dibentuk dari entities individu dengan menggabungkan jarak paling pendek atau similarities (kemiripan) yang paling besar.

b. Complete Linkage Clustering (Pautan Lengkap)

Metode ini didasarkan pada jarak maksimum. Metode Pautan Lengkap (Complete lingkage) akan mengelompokan dua objek yang mempunyai jarak terjauh dahulu. Metode ini dikenal pula dengan nama pendekatan tetangga terjauh. Metode ini memberikan kepastian bahwa semua item-item dalam satu kelompok berada dalam jarak paling jauh (similaritas terkecil) satu sama lain.

Hasil Complete Linkage Clustering dapat disajikan dalam bentuk Dendogram atau diagram pohon. Cabang-cabang tersebut bertemu bersama-sama (menggabung) pada simpul posisinya sepanjang suatu sumbu jarak (kemiringan) menunjukan tingkat dimana penggabungan terjadi. Complete Linkage memberikan kepastian bahwa semua item-item dalam satu cluster berada dalam jarak paling jauh (similaritas terkecil) satu sama lain.

c. Averaging Lingkage Clustering

Average Linkage memperlakukan jarak antara dua cluster sebagai jarak rata-rata antara semua pasangan item-item di mana satu anggota dari pasangan tersebut kepunyaan tiap cluster. Mulai dengan mencari matriks jarak D = {dik} untuk memperoleh objek-objek paling dekat ( paling mirip) misalnya U dan V . Objek objek ini digabungkan untuk membentuk cluster (UV). Untuk langkah dari algoritma di atas jarak-jarak antara(UV) dan cluster W yang lain ditentukan oleh:


(36)

di mana dik adalah jarak antara objek i dalam Cluster (UV) dan objek k dalam

ClusterW , dan Nuv dan Nw berturut-turut adalah banyaknya item-item dalam Cluster

(UV) dan W.

2.5.2. Clustering Partisional (Partitional Clustering)

Dalam partisioning kita mengelompokkan obyek ke dalam k

cluster. Ini bisa dilakukan dengan menentukan pusat cluster awal, lalu dilakukan realokasi obyek berdasarkan kriteria tertentu sampai dicapai pengelompokan yang optimum. Dalam cluster hirarki, kita mulai dengan membuat m cluster dimana setiap

cluster beranggotakan satu obyek dan berakhir dengan satu cluster dimana anggotanya adalah m obyek. Pada setiap tahap dalam prosedurnya, satu cluster digabung dengan satu cluster yang lain. Kita bisa memilih berapa jumlah cluster yang diinginkan dengan menentukan cut-off pada tingkat tertentu (Santosa, 2007).

Salah satu isu dengan algoritma-algoritma tersebut adalah kompleksitas tinggi, karena menyebutkan semua pengelompokkan yang memungkinkan dan berusaha mencari optimum global. Bahkan untuk jumlah objek yang kecil, jumlah partisi adalah besar. Itulah sebabnya mengapa solusi-solusi umum dimulai dengan sebuah partisi awal, biasanya acak, dan berlanjut dengan penyempurnaannya.

Sebuah pendekatan terhadap pembagian data adalah mengambil sudut pandang konseptual yang mengidentifikasikan clusterdengan model tertentu yang parameternya tidak diketahui harus ditemukan. Model-model probabilistik menganggap bahwa data berasal dari campuran beberapa populasi yang didistribusi dan prioritasnya ingin ditemukan. Sebuah kelebihan yang jelas dari metode-metode probabilitas adalah daya interpretasi dari cluster-clusteryang dibuat.

Dengan memiliki representasi clusteryang tepat juga memungkinkan penghitungan yang tidak ekspensif dari ukuran-ukuran intra-clusterdari kesesuaian yang memberikan fungsi objektif yang tergantung pada sebuah pembagian (partition). (Paulanda, 2012). Sedangkan metode partitioning sendiri terdiri dari k-means dan

fuzzy K-Means.Dengan mengetahui objek-objek database N, sebuah algoritma

clusteringpartisional membentuk k bagian dari data, dimana setiap

clustermengoptimalkan kriteria clustering, seperti minimasi jumlah jarak kuadrat dari rata-rata dalam setiap cluster.

Salah satu isu dengan algoritma-algoritma tersebut adalah kompleksitas tinggi, karena menyebutkan semua pengelompokkan yang memungkinkan dan berusaha mencari


(37)

optimum global. Bahkan untuk jumlah objek yang kecil, jumlah partisi adalah besar. Itulah sebabnya mengapa solusi-solusi umum dimulai dengan sebuah partisi awal, biasanya acak, dan berlanjut dengan penyempurnaannya.

Praktek yang lebih baik akan berupa pelaksanaan algoritma partisional untuk kumpulan point-point awal yang berbeda (yang dianggap sebagai representative) dan meneliti apakah semua solusi menyebabkan partisi akhir yang sama atau tidak. Algoritma-algoritma clusteringpartisional berusaha memperbaiki secara local sebuah kriteria tertentu. Pertama, menghitung nilai-nilai kesamaan atau jarak, mengurutkan hasil, dan mengangkat nilai yang mengoptimalkan kriteria. Oleh karena itu, dapat dianggap sebagai algoritma seperti greedy. Sebuah pendekatan terhadap pembagian data adalah mengambil sudut pandang konseptual yang mengidentifikasikan

clusterdengan model tertentu yang parameternya tidak diketahui harus ditemukan. Model-model probabilistik menganggap bahwa data berasal dari campuran beberapa populasi yang didistribusi dan prioritasnya ingin ditemukan. Sebuah kelebihan yang jelas dari metode-metode probabilitas adalah daya interpretasi dari

cluster-clusteryang dibuat. Dengan memiliki representasi clusteryang tepat juga memungkinkan penghitungan yang tidak ekspensif dari ukuran-ukuran intra

clusterdari kesesuaian yang memberikan fungsi objektif yang tergantung pada sebuah pembagian (partition). Tergantung pada bagaimana representative dibuat, algoritma partitioning optimasi literative dibagi lagi ke dalam metode-metode medoids dan K-means.

a. K-Means Clustering

Salah satu metode partisi atau biasa disebut juga dengan metode non hirarki. Salah satu metode partisi yang biasa digunakan adalah metode K-Means Clustering. Metode

K-Means Clustering dapat diterapkan pada kasus dengan jumlah objek yang sangat besar (Utami & Sutikno, 2010).

Dari beberapa teknik clustering yang paling sederhana dan umum dikenal adalah

clustering k-means. Dalam teknik ini kita ingin mengelompokkan obyek ke dalam k kelompok atau cluster. Untuk melakukan clustering ini, nilai k harus ditentukan terlebih dahulu. Biasanya user atau pemakai sudah mempunyai informasi awal tentang obyek yang sedang dipelajari, termasuk berapa jumlah cluster yang paling tepat. Secara detail kita bisa menggunakan ukuran ketidakmiripan untuk mengelompokkan obyek kita. Jika jarak dua obyek atau data titik cukup dekat, maka dua obyek itu


(38)

mirip. Semakin dekat berarti semakin tinggi kemiripannya. Semakin tinggi nilai jarak, semakin tinggi ketidakmiripannya (Santosa, 2007)

K-Means Clusteringmerupakan salah satu metode data clustering non hirarki yang mengelompokan data dalam bentuk satu atau lebih cluster/kelompok. Data-data yang memiliki karakteristik yang sama dikelompokan dalam satu cluster/kelompok dan data yang memiliki karakteristik yang berbeda dikelompokan dengan

cluster/kelompok yang lain sehingga data yang berada dalam satu cluster/kelompok memiliki tingkat variasi yang kecil (Agusta, 2007).

Metode K-Means digunakan sebagai alternatif metode cluster untuk data dengan ukuran besar karena memiliki kecepatan yang lebih tinggi dibandingkan metode hirarki. Menurut Forgy (1965) K-Means adalah salah satu algoritma terkenal dalam

clustering, awalnya dikenal sebagai metode Forgy’s dan telah digunakan secara luas

di berbagai bidang termasuk Data Mining, analisi statistik data dan aplikasi bisnis lainnya.

Untuk k-means, k menunjukkan jumlah cluster. Nilai k ditentukan oleh pemakai atau user. Untuk kasus dimana ada pertimbangan dari ahli yang kompeten atau expert di bidangnya, nilai k akan mudah di tentukan. Tetapi sering sekali terjadi bahwa nilai k ini harus ditentukan dengan melihat pada data (tanpa ada pertimbangan dari expert) (Mahrus, et al. 2013)

K-Means merupakan algoritma clustering yang berulang-ulang. Algoritma K-Means dimulai dengan pemilihan secara acak K, K disini merupakan banyaknya cluster yang ingin dibentuk. Kemudian tetapkan nilai-nilai K secara random, untuk sementara nilai tersebut menjadi pusat dari cluster atau biasa disebut dengan centroid, mean atau

means”. Hitung jarak setiap data yang ada terhadap masing-masing centroid

menggunakan rumus Euclidian hingga ditemukan jarak yang paling dekat dari setiap data dengan centroid. Klasifikasikan setiap data berdasarkan kedekatannya dengan

centroid. Lakukan langkah tersebut hingga nilai centroid tidak berubah (stabil) (Rismawan, 2008)

Konsep dasar dari algortima K-Means adalah pencarian pusat cluster (centroidpoints) secara iterative. Pusat cluster ditetapkan berdasarkan jarak setiap data ke pusat cluster. Proses clustering dimulai dengan mengidentifikasikan data yang akan di-cluster, dengan n adalah jumlah data yang akan di cluster dan m adalah jumlah variable.


(39)

Pada awal iterasi, pusat setiap cluster ditetapkan secara bebas (sembarang),

. Kemudian dihitung jarak antara setiap data dengan setiap pusat

cluster. Untuk melakukan perhitungan jarak data ke -

ke-I pada pusat cluster ke , diberi nama dapat digunakan formula Euclidean, yaitu:

Suatu data akan menjadi anggota dari clusterke-j apabila jarak data tersebut ke pusat

clusterke-j bernilai paling kecil jika dibandingkan dengan jarak ke pusat

clusterlainnya. Selanjutnya, kelompokkan data-data yang menjadi anggota pada setiap

cluster. Nilai pusat clusteryang baru dapat dihitung dengan cara mencari nilai rata-rata dari data-data yang menjadi anggota pada clustertersebut, dengan rumus:

Menurut Santosa (2007), langkah-langkah melakukan Clustering dengan metode K-Meansadalah sebagai berikut:

a. Pilih jumlah cluster k.

b. Inisialisasi k pusat clusterini bisa dilakukan dengan berbagai cara. Namun yang paling sering dilakukan adalah dengan cara random. Pusat-pusat cluster

diberi nilai awal dengan angka-angka random.

c. Alokasikan semua data/ objek ke cluster terdekat. Kedekatan dua objek ditentukan berdasarkan jarak kedua objek tersebut. Demikian juga kedekatan suatu data ke clustertertentu ditentukan jarak antara data dengan pusat cluster. Dalam tahap ini perlu dihitung jarak tiap data ke tiap pusat cluster. Jarak paling antara satu data dengan satu clustertertentu akan menentukan suatu data masuk dalam Clustermana. Untuk menghiutng jarak semua data ke setiap tiitk pusat Cluster dapat menggunakan teori jarak Euclidean yang dirumuskan sebagai berikut:


(40)

dimana:

Jarak data ke i ke pusat Clusterj Data ke i pada atribut data ke k Titik pusat ke j pada atribut ke k

d. Hitung kembali pusat Clusterdengan keanggotaan Clusteryang sekarang. Pusat

Clusteradalah rata-rata dari semua data/ objek dalam Clustertertentu. Jika dikehendaki bisa juga menggunakan median dari Cluster tersebut. Jadi rata-rata (mean) bukan satu-satunya ukuran yang bisa dipakai.

e. Tugaskan lagi setiap objek memakai pusat Clusteryang baru. Jika pusat

Clustertidak berubah lagi maka proses clusteringselesai. Atau, kembali ke langkah nomor 3 sampai pusat clustertidak berubah lagi.

Algoritma K-Means adalah algoritma yang terbaik dalam algoritma Partitional Clustering dan yang paling sering digunakan diantara algoritma Clustering lainnya, karena kesederhanaan dan efesiensinya (Budiman, 2012).

Ya

Tidak

Gambar 2.3 Flowchart Algoritma Metode K-MeansClustering

Sumber : (Nugraheni, 2011) Menentukan jumlah Cluster

Menentukan centroid

Menentukan nilai De (Distance Euclidean) Menghitung jarak objek dengan nilai

De (Distance Euclidean)

Ada Objek yang berpindah


(41)

Seperti disinggung dalam salah satu langkah dalam prosedur clustering bahwa rata-rata (mean) sebagai pusat cluster bisa diganti dengan ukuran pemusatan yang lain seperti median. Untuk kasus-kasus tertentu pemakaian median sebagai alternatif dari mean memberikan hasil yang lebih baik. Seperti kita ketahui median tidak sensitif terhadap data outlier, data yang terletak jauh dari kebanyakan data yang lain. Jika kita mempunyai data yang kita yakini mempunyai data outlier yang mengandung informasi penting pemakaian ukuran pemusatan berupa median dalam Clustering ini mungkin bisa di coba. Perhatikan contoh berikut ini

a. Mean dari 1, 3, 5, 7, 9 adalah 5 b. Mean dari 1, 3, 5, 7, 1009 adalah 205 c. Median dari 1, 3, 5, 7, 1009 adalah 5

d. Kelihatan bahwa median tidak sensitif terhadap nilai ekstrim. Hasil Cluster

dengan metode K-Mean sangat bergantung pada nilai pusat Cluster yang diberikan. Pemberian nilai awal yang berbeda bisa menghasilkan hasil Cluster

yang berbeda. Ada beberapa cara memberi nilai awal misalnya dengan mengambil sampel awal dari data, lalu mencari pusatnya, memberi nilai awal secara random, kita tentukan nilai awalnya atau menggunakan hasil dari

Cluster hirarki dengan jumlah Cluster yang sesuai.

Pada Survey yang dipublikasikan Springer ” Tio 10 Algorithm in Data Mining

(Budiman, 2012), algoritma K-Means ditempatkan pada posisi 2 (dua) sebagai algoritma paling banyak digunakan dalam Data Mining menjadi posisi pertama untuk algoritma Clustering. Urutan Top Algoritma-nya adalah sebagai berikut :

1) C4.5 2) K-Means

3) SVM (Support Vector Machines) 4) Algoritma Apriori

5) EM (Expectation Maximazation) 6) Algoritma PageRank

7) Algoritma AdaBoost 8) K-Nearest Neighbor 9) Naïve Bayes


(42)

b. Fuzzy K-Means Clustering

Fuzzy K-means Clustering atau fuzzy isodata dikembangkan oleh Bezdek pada tahun 1981 untuk menyelesaikan masalah optimasi (Agusta, 2007). Pengelompokan dengan mempertimbangkan tingkat keanggotaan yang mencakup himpunan fuzzy sebagai dasar pembobotan bagi pengelompokan disebut dengan Fuzzy Clustering. Metode

Fuzzy K-means Clustering merupakan pengembangan dari metode K-means Clustering untuk meminimalkan masalah kegagalan konvergen (Utami & Sutikno, 2010).

Metode K-Means Clustering memiliki matriks keanggotaan biner yaitu 0 dan 1, sedangkan fuzzy K-Means Clustering memiliki matriks keanggotaan kontinu antara 0 dan 1. Pada Fuzzy K-Means Clustering, fungsi keanggotaan memiliki nilai antara 0 sampai 1 dengan fungsi pembatas berikut:

Derajat keanggotaan terbesar dari setiap objek menunjukkan kecenderungan objek tersebut menjadi anggota dari kelompok tertentu. Prinsip utama dari fuzzy K-means Clustering adalah meminimumkan fungsi objektif, yaitu jarak antara objek dengan setiap pusat kelompok.

Tidak ada nilai w yang optimum, tetapi nilai w yang sering digunakan adalah 2 (Agusta, 2007). Fungsi objektif dapat diminimumkan dengan fungsi pembatas dengan menggunakan pengganda lagrange kelompok yang optimum pada metode fuzzy K-means clustering.

2.6.Sum of Squared Error (SSE)

Sum of Squared Error (SSE) diterjemahkan sebagai penjumlahan nilai kuadrat dari jarak data dengan pusat Cluster. SSE dinyatakan dengan rumus berikut:


(43)

2.7.Distance Space Untuk Menghitung Jarak Antara Data dan Centroid

Tetapi secara umum distance space yang sering digunakan adalah Manhattan dan Euclidean. Euclidean sering digunakan karena penghitungan jarak dalam distance space ini merupakan jarak terpendek yang bisa didapatkan antara dua titik yangdiperhitungkan, sedangkan Manhattan sering digunakan karena kemampuannya dalammendeteksi keadaan khusus seperti keberadaaan outliers dengan lebih baik. Konsep ketidakmiripan pada metode ini berdasarkan pada ukuran jarak antar objek, dimana jarak yang besar menunjukan sedikit kesamaan dan jarak yang pendek atau kecil menunjukan bahwa suatu objek semakin mirip dengan objek yang lainya. Berbeda dengan ukuran korelasi, ukuran jarak berfokus pada besarnya nilai. Cluster

berdasarkan ukuran korelasi bisa saja tidak memiliki kesamaan nilai tapi hanya memiliki kesamaan pola, sedangkan cluster berdasarkan ukuran jarak lebih memiliki kesamaan nilai meskipun polanya berbeda. Adapun macam-macam dari ukuran jarak dapat diuraikan sebagai berikut:

2.7.1. Jarak Euclidean

Konsep jarak Euclidean ini memperlakukan semua peubah adalah bebas (tidak berkorelasi). Transformasi baku yang dilakukan berarti menghilangkan pengaruh keragaman data atau dengan kata lain semua peubah akan memberikan kontribusi yang sama untuk jarak.

Jarak Euclidean adalah besarnya jarak suatu garis lurus yang menghubungkan antar objek. Misalkan ada dua objek yaitu A dengan koordinat (x1,y1) dan B dengan koordinat (x2,y2) maka jarak antar kedua objek tersebut dapat diukur dengan rumus:

Ukuran jarak atau ketidaksamaan antar objek ke-i denganobjek ke-j, disimbolkan dengan dij dan k=1,…..,p. Nilai dij diperoleh melalui perhitungan jarak kuadrat Euclidean sebagai berikut:

Keterangan :

dij = Jarak Kuadrat Euclidean antar objek ke-i dengan obejk ke-j P = Jumlah Variabel cluster


(44)

Xik = Nilai atau data dari objek ke-i pada variable ke-k

Xjk = Nilai atau data dari objek ke-j pada variable ke-k (Everit, 1993)

2.7.2. Jarak Menhattan

Jarak manhattan adalah besarnya jarak daridua objek ditinjau dari nilai selisih kedua objek tersebut. Misalkan ada dua objek yaitu A dengan koordinat (x1,y1) dan B dengan koordinat (x2,y2) maka jarak antar kedua objek tersebut dapat diukur dengan rumus.

Maka jarak manhattan dari objek i ke objek j, disimbolkan dij dengan k=1,2,…,p

variabel objek dapat dihintung dengan :

2.7.3. Jarak Pearson

Jarak Pearson merupakan perluasan dari jarak Euclidean. Ukuran kesamaan dalam jarak ini meninjau varian dari kedua objeknya juga. Ukuran pearson merupakan ukuran jarak Euclidean yang dalam tiap variabelnya dibagi dengan varian seluruh variabel yang ada. Maka jarak pearson dari objek i ke objek j, disimbolkan dij dengan

k=1,2,…,p variabel objekdapat dihitung dengan:

Namun pada umumnya, ukuran jarak yang sering dipakai oleh peneliti adalah jarak Euclidean. Karena jarak ini cukup fleksibel untuk dilakukan modifikasi dalam mengatasi kelemahan data. Misalnya kelemahan karena unit pengukuran dan atau skala pengukuran yang berbeda bisa diperbaiki dengan melakukan transformasi baku (Z) dari rumus jaraknya.

Beberapa distance spacetelah diimplementasikan dalam menghitung jarak (distance) antara data dan centroidtermasuk di antaranya L1 (Manhattan/City Block)

distance space, L2 (Euclidean) distance space, dan Lp (Minkowski) distance space. Jarak antara dua titik x1dan x2 pada Manhattan/City Block distance spacedihitung dengan menggunakan rumussebagai berikut:


(1)

'--- CLUSTER --- if p != 0:

Cl1 = random.randint(0, len(Data)-1) while (True):

Cl2 = random.randint(0, len(Data)-1) if Cl1 != Cl2:

break while (True):

Cl3 = random.randint(0, len(Data)-1) if Cl1 != Cl3 and Cl3 != Cl2:

break

Cl = [Cl1, Cl2, Cl3] Cluster = []

for i in Cl:

for j in Wilayah:

if Data[i][1] == j[0]: Wil = j[2]

for j in JenisPk:

if Data[i][2] == j[0]: JPk = j[2]

Cluster.append([Wil, JPk, Data[i][3]]) print("\nPusat Cluster")

print("============================================================") for i in Cluster:

print(i)

'--- PERHITUNGAN ITERASI---' for i in range(len(Data)):

for j in range(len(Cluster)):

D = math.sqrt(pow(Pasien[i][1] - Cluster[j][0], 2) + pow(Pasien[i][2] -

Cluster[j][1], 2) +

pow(Pasien[i][3] - Cluster[j][2], 2))

D = float("%.3f" % D) Pasien[i].append(D)

if Pasien[i][4] <= Pasien[i][5]: if Pasien[i][4] <= Pasien[i][6]: Pasien[i].append(1)

Pasien[i].append(0) Pasien[i].append(0)

elif Pasien[i][4] > Pasien[i][6]: Pasien[i].append(0)

Pasien[i].append(0) Pasien[i].append(1)

elif Pasien[i][4] > Pasien[i][5]: if Pasien[i][5] <= Pasien[i][6]: Pasien[i].append(0)

Pasien[i].append(1) Pasien[i].append(0)

elif Pasien[i][5] > Pasien[i][6]: Pasien[i].append(0)


(2)

Pasien[i].append(0) Pasien[i].append(1)

print("\nJarak setiap data pasien ke Setiap Cluster pada iterasi ke 1")

print("============================================================") for i in Pasien:

print(i) 'Hitung SSE' SSE = 0

for i in Pasien: SSe = 0

SSE = SSe + pow(i[4], 2) + pow(i[5], 2) + pow(i[6], 2) SSE = SSE / len(Pasien)

print("\nSSE =", SSE) CL2 = []

l = 0

while (True):

'===================== CLUSTER 1 ============' ClusterB = []

CL2 = Cluster for k in range(3):

for j in range(len(Cluster)): Jlh = 0

W = 0

for i in Pasien: if i[7+k] == 1: Jlh = Jlh + 1 W = W + i[1+j] W = W / Jlh

W = float("%.3f" % W) ClusterB.append(W)

Cluster = [[ClusterB[0], ClusterB[1], ClusterB[2]], [ClusterB[3], ClusterB[4], ClusterB[5]], [ClusterB[6], ClusterB[7], ClusterB[8]]] print("\nCluster baru iterasi ke", l + 2)

print("============================================================") for i in Cluster:

print(i)

for i in range(len(Data)):

for j in range(len(Cluster)):

D = math.sqrt(pow(Pasien[i][1] - Cluster[j][0], 2) + pow(Pasien[i][2] - Cluster[j][1], 2) +

pow(Pasien[i][3] - Cluster[j][2], 2)) D = float("%.3f" % D) Pasien[i][4+j] = D

if Pasien[i][4] <= Pasien[i][5]: if Pasien[i][4] <= Pasien[i][6]: Pasien[i][7] = 1

Pasien[i][8] = 0 Pasien[i][9] = 0


(3)

elif Pasien[i][4] > Pasien[i][6]: Pasien[i][7] = 0

Pasien[i][8] = 0 Pasien[i][9] = 1

elif Pasien[i][4] > Pasien[i][5]: if Pasien[i][5] <= Pasien[i][6]: Pasien[i][7] = 0

Pasien[i][8] = 1 Pasien[i][9] = 0

elif Pasien[i][5] > Pasien[i][6]: Pasien[i][7] = 0

Pasien[i][8] = 0 Pasien[i][9] = 1

print("\nJarak setiap data pasien ke Setiap Cluster pada iterasi ke", l + 2)

print("============================================================") for i in Pasien:

print(i)

if CL2 == Cluster: break

else:

l = l + 1 'Hitung SSE' SSE = 0

for i in Pasien: SSe = 0

SSE = SSe + pow(i[4], 2) + pow(i[5], 2) + pow(i[6], 2) SSE = SSE / len(Pasien)

print("\nSSE =", SSE)

PCluster.append([Cl[0], Cl[1], Cl[2], SSE]) print("")

for i in range(len(PCluster)):

print("Partikel", i+1, "=", PCluster[i]) PCluster.sort(key = operator.itemgetter(3)) print("")

for i in range(len(PCluster)):

print("Partikel", i+1, "=", PCluster[i])

Cl = [PCluster[0][0], PCluster[0][1], PCluster[0][2]] IterasiCl.append(PCluster[0])

print("")

for i in range(len(IterasiCl)):


(4)

Lampiran 2

Nilai SSE pada 20 Iterasi

Iterasi

Data

Pusat Cluster

Nilai SSE

SSE Min

1

0,1,2

[2, 1, 33][3, 2, 25][1, 3, 44]

332.5657

315.0354

0,11,2

[2, 1, 33][3, 1, 22][1, 3, 44]

315.0354

19,10,0

[3, 2, 26][3, 1, 27][2, 1, 33]

327.1982

4,18,2

[2, 1, 37][1, 3, 27][1, 3, 44]

358.9849

16,10,9

[1, 3, 24][3, 1, 27][4, 5, 28]

327.1982

2

0,1,2

[2, 1, 33][3, 1, 22][1, 3, 44]

315.0354

314.2185

13,0,15

[2, 5, 30][2, 1, 33][1, 3, 41]

314.2185

11,7,15

[3, 1, 22][1, 4, 42][1, 3, 41]

358.9849

1,17,0

[3, 2, 25][1, 1, 22][2, 1, 33]

327.1982

14,16,2

[4, 2, 44][1, 3, 24][1, 3, 44]

358.9849

3

13,0,15

[2, 5, 30][2, 1, 33][1, 3, 41]

314.2185

306.8306

1,19,12

[3, 2, 25][3, 2, 26][2, 1, 27]

327.1982

1,5,13

[3, 2, 25][3, 2, 40][2, 5, 30]

306.8306

8,6,19

[4, 4, 38][4, 2, 24][3, 2, 26]

327.1982

7,17,18

[1, 4, 42][1, 1, 22][1, 3, 27]

327.1982

4

1,5,13

[3, 2, 25][3, 2, 40][2, 5, 30]

306.8306

306.8306

12,1,4

[2, 1, 27][3, 2, 25][2, 1, 37]

327.1982

5,15,17

[3, 2, 40][1, 3, 41][1, 1, 22]

358.9849

3,4,0

[2, 1, 31][2, 1, 37][2, 1, 33]

314.2185

6,14,10

[4, 2, 24][4, 2, 44][3, 1, 27]

327.1982

5

1,5,13

[3, 2, 25][3, 2, 40][2, 5, 30]

306.8306

306.8306

6,11,17

[4, 2, 24][3, 1, 22][1, 1, 22]

327.1982

17,2,15

[1, 1, 22][1, 3, 44][1, 3, 41]

358.9849

3,8,14

[2, 1, 31][4, 4, 38][4, 2, 44]

358.9849

11,4,8

[3, 1, 22][2, 1, 37][4, 4, 38]

315.0354

6

1,5,13

[3, 2, 25][3, 2, 40][2, 5, 30]

306.8306

306.8306

18,4,8

[1, 3, 27][2, 1, 37][4, 4, 38]

314.2185

18,11,13 [1, 3, 27][3, 1, 22][2, 5, 30]

327.1982

1,16,18

[3, 2, 25][1, 3, 24][1, 3, 27]

327.1982

11,8,7

[3, 1, 22][4, 4, 38][1, 4, 42]

332.5657

7

1,5,13

[3, 2, 25][3, 2, 40][2, 5, 30]

306.8306

306.8306

16,18,3

[1, 3, 24][1, 3, 27][2, 1, 31]

327.1982

19,16,1

[3, 2, 26][1, 3, 24][3, 2, 25]

327.1982

4,0,10

[2, 1, 37][2, 1, 33][3, 1, 27]

301.0533

6,19,15

[4, 2, 24][3, 2, 26][1, 3, 41]

327.1982

8

4,0,10

[2, 1, 37][2, 1, 33][3, 1, 27]

301.0533

301.0533

0,18,2

[2, 1, 33][1, 3, 27][1, 1, 22]

332.5600

3,11,15

[1, 1, 22][1, 3, 44][1, 3, 44]

327.1982

14,6,9

[4, 2, 44][4, 2, 24][4, 5, 28]

312.7001

13,14,18 [2, 5, 30][4, 2, 44][1, 3, 27]

306.8306

9

4,0,10

[2, 1, 37][2, 1, 33][3, 1, 27]

301.0533

301.0533

8,15,5

[4, 4, 38][1, 3, 41][3, 2, 40]

358.9849


(5)

12,1,18

[2, 1, 27][3, 2, 25][1, 3, 27]

315.0354

8,11,6

[4, 4, 38][1, 3, 44][4, 2, 24]

327.1982

5,18,1

[3, 2, 40][1, 1, 27][3, 2, 25]

312.7001

10

4,0,10

[2, 1, 37][2, 1, 33][3, 1, 27]

301.0533

301.0533

7,8,16

[1, 4, 42][4, 4, 38][1, 3, 24]

358.9849

2,15,1

[1, 3, 44][1, 3, 41][3, 2, 25]

358.9849

4,8,10

[2, 1, 37][4, 4, 38][3, 1, 27]

314.2185

7,12,5

[1, 4, 42][2, 1, 27][3, 2, 40]

358.9849

11

4,0,10

[2, 1, 37][2, 1, 33][3, 1, 27]

301.0533

301.0533

5,4,16

[3, 2, 40][2, 1, 37][1, 3, 24]

314.2185

10,14,12 [3, 1, 27][4, 2, 44][2, 1, 27]

327.1982

17,0,16

[1, 1, 22][2, 1, 33][1, 3, 24]

327.1982

4,19,16

[2, 1, 37][3, 2, 26][1, 3, 24]

327.1982

12

4,0,10

[2, 1, 37][2, 1, 33][3, 1, 27]

301.0533

301.0533

19,7,2

[3, 2, 26][1, 4, 42][1, 3, 44]

358.9849

0,12,11

[2, 1, 37][2, 1, 27][3, 1, 22]

327.1982

14,11,6

[4, 2, 44][3, 1, 22][4, 2, 24]

327.1982

15,9,6

[1, 3, 41][4, 5, 28][4, 2, 24]

312.7001

13

4,0,10

[2, 1, 37][2, 1, 33][3, 1, 27]

301.0533

301.0533

8,3,7

[4, 4, 38][2, 1, 37][1, 4, 42]

358.9849

12,15,13 [2, 1, 27][2, 1, 37][2, 5, 30]

306.8306

6,1,9

[4, 2, 24][3, 2, 25][4, 5, 28]

327.1982

7,9,13

[4, 4, 38][4, 5, 28][2, 5, 30]

301.0533

14

4,0,10

[2, 1, 37][2, 1, 33][3, 1, 27]

301.0533

301.0533

8,12,11

[4, 4, 38][2, 1, 27][3, 1, 22]

327.1982

0,1,5

[2, 1, 33][3, 2, 25][3, 2, 40]

301.0533

10,0,14

[3, 1, 27][2, 1, 33][4, 2, 44]

332.5657

16,3,13

[1, 3, 24][2, 1, 37][2, 5, 30]

306.8306

15

4,0,10

[2, 1, 37][2, 1, 33][3, 1, 27]

301.0533

301.0533

0,19,15

[2, 1, 33][3, 2, 26][1, 3, 41]

315.0354

5,16,13

[3, 2, 40][1, 3, 24][2, 5, 30]

306.8306

12,5,3

[2, 1, 27][3, 2, 40][2, 1, 31]

301.0533

4,10,11

[2, 1, 37][3, 1, 27][3, 1, 22]

327.1982

16

4,0,10

[2, 1, 37][2, 1, 33][3, 1, 27]

301.0533

301.0533

0,15,3

[4, 4, 38][1, 3, 41][3, 2, 40]

314.2185

12,13,3

[2, 1, 27][3, 2, 25][1, 3, 27]

306.8306

14,18,4

[4, 4, 38][3, 1, 22][4, 2, 24]

358.9849

11,19,5

[3, 2, 40][1, 3, 27][3, 2, 25]

327.1982

17

4,0,10

[2, 1, 37][2, 1, 33][3, 1, 27]

301.0533

301.0533

9,17,14

[1, 4, 42][4, 4, 38][1, 3, 24]

327.1982

4,9,2

[1, 3, 44][1, 3, 41][3, 2, 25]

358.9849

19,6,16

[2, 1, 37][4, 4, 38][3, 1, 27]

327.1982

1,5,17

[1, 4, 42][2, 1, 27][3, 2, 40]

327.1982

18

4,0,10

[2, 1, 37][2, 1, 33][3, 1, 27]

301.0533

301.0533

1,15,4

[3, 2, 40][2, 1, 37][1, 3, 24]

332.5600

12,10,4

[3, 1, 27][4, 2, 44][2, 1, 27]

327.1982

8,11,5

[1, 1, 22][2, 1, 33][1, 3, 24]

332.5657


(6)

3,17,0

[2, 1, 37][3, 2, 26][1, 3, 24]

327.1982

19

4,0,10

[2, 1, 37][2, 1, 33][3, 1, 27]

301.0533

301.0533

19,5,8

[3, 2, 26][1, 4, 42][1, 3, 44]

332.5600

1,0,15

[2, 1, 33][2, 1, 27][3, 1, 22]

315.0354

4,15,10

[4, 2, 44][3, 1, 22][4, 2, 24]

336.7090

3,13,6

[1, 3, 41][4, 5, 28][4, 2, 24]

312.7001

20

4,0,10

[2, 1, 37][2, 1, 33][3, 1, 27]

301.0533

301.0533

7,10,3

[4, 4, 38][2, 1, 31][1, 4, 42]

301.0533

13,6,19

[2, 1, 27][1, 3, 41][2, 5, 30]

327.1982

9,7,5

[4, 2, 24][3, 2, 25][4, 5, 28]

358.9849

0,17,2

[1, 4, 42][4, 5, 28][2, 5, 30]

315.0354