Algoritma Pembelajaran Radial Basis Function Neural Network

54 Output yang dihasilkan dari model RBFNN merupakan kombinasi linear dari bobot dengan fungsi aktivasi dan bobot bias . Vektor output dirumuskan sebagai berikut Ali Dale, 2003: ∑ 3.5 dengan, ∑ dimana, banyak neuron tersembunyi bobot dari neuron lapisan tersembunyi ke-j menuju neuron output ke-s bobot bias menuju neuron output ke-s fungsi aktivasi neuron tersembunyi ke – j merupakan vektor input

3. Algoritma Pembelajaran Radial Basis Function Neural Network

Proses pembelajaran dalam RBFNN sedikit berbeda dengan proses pembelajaran pada model neural network lainnya. RBFNN model ini melakukan pembelajaran secara hybrid, yaitu menggabungkan antara pembelajaran terawasi supervised learning dan pembelajaran tak terawasi 55 unsupervised learning Wiharto dkk, 2013. Metode pembelajaran tidak terawasi unsupervised learning digunakan pada proses dari lapisan input menuju lapisan tersembunyi dan metode pembelajaran terawasi supervised learning digunakan pada proses yang terjadi dari lapisan tersembunyi menuju lapisan output Chen et al, 2013. Algoritma pembelajaran RBFNN terbagi menjadi tiga bagian Andrew, 2002:70, yaitu menentukan : a. Pusat dan jarak dari setiap fungsi basis. Pada penelitian ini, pusat dan jarak dari setiap fungsi basis dicari menggunakan metode K-Means clustering dan Fuzzy C-Means clustering, yang selanjutnya akan dibandingkan hasil klasifikasinya. Jarak yang digunakan adalah jarak Euclide karena sederhana untuk menghitung dan lebih dapat diandalkan. 1 K-Means clustering K-Means merupakan algoritma untuk mengklasifikasikan atau mengelompokkan objekdata berdasarkan unsurfitur ke sejumlah kelompokcluster, dengan adalah bilangan bulat positif Teknomo, 2015. Sehingga, data dikelompokkan ke dalam kelompok atau cluster yang memiliki karakteristik yang sama. Contoh penggunaan metode K-Means clustering : Misalkan akan diukur dua variabel dan untuk masing-masing empat item A, B, C, dan D. Data yang diberikan dalam Tabel 3.1: 56 Tabel 3.1. Data Pengamatan Item Pengamatan A B C D 5 -1 1 -3 3 1 -2 -2 Data pada Tabel 3.1 dikelompokkan menjadi 2 clusterkelompok k = 2. Untuk mengimplementasikan metode K-Means dengan dua cluster, pertama partisi item menjadi 2 cluster AB dan CD, lalu hitung koordinat pusat cluster rata-rata cluster, seperti pada Tabel 3.2: Tabel 3.2. Koordinat Pusat Cluster partisi pertama Cluster Koordinat Pusat ̅ ̅ AB CD Selanjutnya hitung jarak Euclide untuk masing-masing item dari pusat cluster dan menempatkan kembali masing-masing item ke cluster terdekat. Jika sebuah item berpindah dari konfigurasi awal, pusat cluster rataan harus dihitung kembali. Untuk koordinat ke- , , pusat cluster dapat dihitung kembali dengan cara : ̅ ̅ jika item ke- ditambahkan ke dalam cluster 57 ̅ ̅ jika item ke- dihilangkan dari cluster dengan adalah jumlah item pada cluster sebelumnya. Misal, item A dengan koordinat 5,3 dipindahkan ke dalam cluster CD. Cluster baru B dan ACD dengan pusat terbaru didapat sebagai berikut: Cluster B : ̅ ̅ Cluster ACD: ̅ ̅ Untuk perhitungan jarak Euclide didapatkan: √ √ 7,810 Karena jarak A dengan AB lebih dekat, sehingga A tetap pada cluster AB √ √ Karena jarak B dengan CD lebih dekat, sehingga B berpindah ke cluster CD. √ √ Karena jarak C dengan CD lebih dekat, sehingga C tetap pada cluster CD. 58 √ √ Karena jarak D dengan CD lebih dekat, sehingga D tetap pada cluster CD. Berdasarkan pengelompokan kembali dengan jarak minimum seperti diatas, didapatkan cluster baru yang terbentuk yaitu A dan BCD dengan nilai pusat baru: Tabel 3.3. Koordinat Pusat Cluster Partisi Kedua Cluster Koordinat Pusat ̅ ̅ A BCD Pusat cluster baru yang terbentuk adalah A 5,3 dan BCD -1,-1. Selanjutnya, perhitungan jarak Euclide dan pengelompokan dilakukan kembali hingga didapatkan nilai pusat yang sama dengan sebelumnya stabil. Pada contoh soal ini, perhitungan jarak Euclide dan pengelompokan kembali dilakukan dan didapatkan nilai pusat yang sama yaitu 5, 3 dan -1,-1 pada cluster A dan BCD. Kemudian, mencari jarak maksimum masing – masing item terhadap cluster masing – masing. √ √ 59 √ √ Berdasarkan perhitungan diatas, didapatkan jarak maksimum masing- masing cluster yaitu 0 untuk A dan untuk BCD dengan koordinat pusat 5, 3 dan -1,-1. 2 Fuzzy C-Means Clustering Fuzzy C-Means FCM merupakan salah satu algoritma fuzzy clustering. Fuzzy C-Means merupakan suatu teknik pengelompokan data yang keberadaan setiap titik data dalam suatu cluster ditentukan oleh derajat keanggotaan Sri Kusumadewi, 2002: 159. Contoh penggunaan metode Fuzzy C-Means clustering : Untuk contoh yang sama dengan metode Fuzzy C-Means clustering, Misalkan akan diukur dua variabel dan untuk masing-masing empat item A, B, C, dan D. Data yang diberikan dalam Tabel 3.1. Data dikelompokkan menjadi 2 clusterkelompok k = 2, dengan pangkat atau bobot w=2, Maksimal iterasi= 100, Faktor Koreksi= 10 -5 error paling kecil, Fungsi Objektif awal t=0, J =0. Matriks partisi awal yang terbentuk secara random dan memenuhi fungsi constraint. U=initfcm4,2 = [ ] 60 Selanjutnya menghitung pusat-pusat cluster yang terbentuk berdasarkan matriks partisi awal. Tabel 3.4. Pusat cluster pertama yang dihasilkan pada iterasi ke-1 0,1845 5 3 0,03404 0,170201 0,102121 0,1603 -1 1 0,025696 -0,0257 0,025696 0,3215 1 -2 0,103362 0,103362 -0,20672 0,3340 -3 -2 0,111556 -0,33467 -0,22311 0,274655 -0,0868 -0,30202 ∑ ∑ -0,31604 -1,09963 Tabel 3.5. Pusat cluster kedua yang dihasilkan pada iterasi ke-1 0,1057 5 3 0,011172 0,055862 0,033517 0,2769 -1 1 0,076674 -0,07667 0,076674 0,2520 1 -2 0,063504 0,063504 -0,12701 0,3655 -3 -2 0,13359 -0,40077 -0,26718 0,28494 -0,35808 -0,284 ∑ ∑ -1,25668 -0,99669 Sehingga pusat cluster yang terbentuk adalah: 61 Fungsi Objektif yang dihasilkan adalah ∑ ∑ ∑ Detail perhitungan dapat dilihat pada Tabel 3.6. Tabel 3.6. Perhitungan Fungsi Objektif pada iterasi ke-1 ∑ ∑ 0,03404 0,011172 45,06724 55,11954 1,5341 0,615823 2,149923 0,025696 0,076674 4,876272 4,052657 0,125301 0,310732 0,436033 0,103362 0,063504 2,542607 6,099219 0,26281 0,387325 0,650134 0,111556 0,13359 8,014324 4,045805 0,894046 0,54048 1,434526 4,670616 Karena | | | | dan maka proses dilanjutkan ke Iterasi ke-2 dengan terlebih dahulu menghitung perubahan matriks partisi menggunakan, Tabel 3.7. Perhitungan matriks partisi pada iterasi ke-1 Total 0,022189 0,018142 0,040331 0,550168 0,449832 0,205075 0,246752 0,451826 0,453879 0,546121 0,393297 0,163955 0,557252 0,705779 0,294221 0,124777 0,24717 0,371946 0,335469 0,664531 62 Diperoleh matriks partisi yang baru sebagai berikut: = [ ] Iterasi Ke-2 Selanjutnya menghitung pusat-pusat cluster yang terbentuk berdasarkan matriks partisi awal. Tabel 3.8. Pusat cluster pertama yang dihasilkan pada iterasi ke-2 0,5502 5 3 0,302685 1,513423 0,908054 0,4539 -1 1 0,206006 -0,20601 0,206006 0,7058 1 -2 0,498124 0,498124 -0,99625 0,3355 -3 -2 0,11254 -0,33762 -0,22508 1,119355 1,467921 -0,10727 ∑ ∑ 1,311399 -0,09583 Tabel 3.9. Pusat cluster kedua yang dihasilkan pada iterasi ke-2 0,4498 5 3 0,202349 1,011745 0,607047 0,5461 -1 1 0,298248 -0,29825 0,298248 0,2942 1 -2 0,086566 0,086566 -0,17313 0,6645 -3 -2 0,441601 -1,3248 -0,8832 1,028764 -0,52474 -0,15104 63 ∑ ∑ -0,51007 -0,14682 Sehingga pusat cluster yang terbentuk adalah: [ ] Fungsi Objektif yang dihasilkan adalah ∑ ∑ ∑ Detail perhitungan dapat dilihat pada Tabel 3.10. Tabel 3.10. Perhitungan Fungsi Objektif pada iterasi ke-2 ∑ ∑ 0,302685 0,202349 23,18993 40,2633 7,019237 8,147238 15,16647 0,206006 0,298248 6,543409 1,555221 1,347985 0,463841 1,811826 0,498124 0,086566 3,722836 5,714596 1,854433 0,49469 2,349123 0,11254 0,441601 22,21403 9,634053 2,499962 4,254406 6,754368 26,08179 Karena | | | | dan maka proses dilanjutkan ke Iterasi berikutnya dengan terlebih dahulu menghitung perubahan matriks partisi menggunakan, 64 Tabel 3.11. Perhitungan matriks partisi pada iterasi ke-2 Total 0,043122 0,024837 0,067959 0,634535 0,365465 0,152826 0,642996 0,795821 0,192035 0,807965 0,268612 0,174991 0,443603 0,605524 0,394476 0,045017 0,103798 0,148815 0,3025 0,6975 Diperoleh matriks partisi yang baru sebagai berikut: = [ ] Demikian seterusnya sampai terpenuhi kondisi | | atau t MaxIter. Proses pengerjaannya berhenti pada iterasi ke-4 t=4, karena terpenuhinya salah satu syarat yaitu: | | | | Pusat cluster yang dihasilkan pada iterasi terakhir adalah: Berdasarkan pusat cluster tersebut, diperoleh informasi sebagai berikut: a Cluster yang pertama, terdiri dari objek yang memiliki rata- rata X1 sebesar dan rata-rata X2 sebesar b Cluster yang pertama, terdiri dari objek yang memiliki rata- rata X1 sebesar dan rata-rata X2 sebesar 65 Matriks partisi U pada iterasi terakhir: = [ ] Diperoleh informasi mengenai kecenderungan dari masing-masing objek untuk masuk ke cluster tertentu. Setiap objek memiliki derajat keanggotaan tertentu pada setiap cluster. Derajat keanggotaan terbesar pada suatu cluster menunjukkan bahwa objek itu cenderung menjadi anggota dari cluster tersebut. Secara detail, dapat dilihat pada Tabel 3.12: Tabel 3.12. Derajat Keanggotaan Setiap Objek pada Iterasi Terakhir Objek Variabel Derajat Keanggotaan pada Iterasi Terakhir Kecenderungan Data Masuk pada Cluster A 5 3 0,755252 0,244748 B -1 1 0,081881 0,918119 C 1 -2 0,510735 0,489265 D -3 -2 0,199382 0,800618 Hasil akhirnya adalah terbentuknya 2 buah cluster, dimana untuk cluster pertama beranggotakan objek A dan C, sementara objek B dan D menjadi anggota cluster kedua. 66 Selanjutnya, perhitungan jarak Euclide dengan menggunakan Persamaan 2.27. √ √ √ √ √ √ √ √ Berdasarkan perhitungan diatas, didapatkan jarak maksimum masing- masing cluster yaitu untuk AC dan untuk BD. b. Jumlah neuron pada lapisan tersembunyi sama dengan jumlah fungsi basis. c. Bobot lapisan output jaringan optimum. Pada penelitian ini, bobot lapisan output jaringan optimum ditentukan dengan menggunakan metode global ridge regression. Metode global ridge regression mengestimasi bobot dengan menambahkan parameter regulasi tunggal yang bernilai positif pada sum square error SSE. Estimasi bobot terbaik didapatkan dari hasil akhir dengan SSE terkecil. SSE terkecil atau jumlah kuadrat kesalahan minimal didapatkan dengan metode kuadrat terkecil least 67 square. Penerapannya pada analisis regresi, metode kuadrat terkecil bertujuan untuk memudahkan menyelesaikan masalah optimasi. Model linear yang digunakan adalah ∑ , input data { } , dan target klasifikasi variabel output { ̂ } , ∑ ̂ 3.6 dengan, ̂ target klasifikasi variabel output ke nilai variabel output ke banyak pengamatan Untuk menentukan nilai optimum bobot , diturunkan fungsi SSE menjadi: ∑ ̂ 3.7 Berdasarkan Persamaan 3.5 didapatkan: 3.8 Selanjutnya Persamaan 3.8 disubstitusikan ke Persamaan 3.7 dengan hasil sama dengan nol, ∑ ̂ 3.9 ∑ ∑ ̂ 3.10 ∑ ∑ ̂ 3.11 68 Karena maka diperoleh Persamaan seperti Persamaan 3.11 untuk menentukan bobot. Untuk memperoleh penyelesaian tunggal, Persamaan 3.11 ditulis dengan notasi vektor menjadi: ̂ 3.12 dengan [ ] [ ] ̂ [ ̂ ̂ ̂ ] Karena terdapat Persamaan untuk setiap nilai , maka Persamaan 3.12 dapat ditulis sebagai: [ ] [ ̂ ̂ ̂] ̂ 3.13 dengan [ ] Matriks merupakan matriks desain. Komponen ke dari saat bobot pada nilai optimum adalah Orr, 1996:43: ∑ ̅ ̂ 3.14 dimana, 69 ̅ [ ] Sehingga diperoleh persamaan sebagai berikut: [ ] [ ̂ ̂ ̂] ̂ 3.15 Persamaan 3.15 disubstitusikan ke Persamaan 3.13 menjadi ̂ ̂ 3.16 ̂ ̂ 3.17 ̂ ̂ 3.18 ̂ merupakan nilai bobot dan A adalah matriks perkalian dengan Selanjutnya ditambahkan parameter regulasi yang bernilai positif pada SSE sehingga diperoleh Orr, 1996:24. ∑ ̂ ∑ 3.19 dengan ̂ target klasifikasi variabel output ke nilai variabel output ke banyak data pengamatan parameter regulasi bobot dari neuron lapisan tersembunyi ke-j menuju neuron output ke-s 70 Bobot optimum diperoleh dengan mendifferensialkan Persamaan 3.19 dengan variabel bebas yang ada, kemudian ditentukan penyelesaiannya untuk differensial sama dengan nol. ∑ ̂ 3.20 ∑ ∑ ̂ 3.21 ∑ ∑ ̂ 3.22 ∑ ∑ ̂ 3.23 Berdasarkan Persamaan 3.8, Persamaan 3.23 menjadi: ∑ ∑ ̂ 3.24 Dapat dinotasikan sebagai: ̂ ̂ 3.25 Karena terdapat Persamaan untuk setiap nilai , maka Persamaan 3.25 dapat ditulis sebagai: [ ] [ ̂ ̂ ̂ ] [ ̂ ̂ ̂] ̂ ̂ 3.26 dengan, 71 parameter regulasi ̂ vektor bobot klasifikasi ̂ vektor target klasifikasi matriks desain dengan { } sebagai kolom [ ] perkalian matriks desain dan vektor bobot [ ] [ ̂ ̂ ̂] ̂ Berdasarkan definisi-definisi yang telah disebutkan, diperoleh persamaan sebagai berikut Orr, 1996:21: ̂ ̂ 3.27 ̂ ̂ ̂ Dimana adalah matriks identitas berukuran . Jadi diperoleh persamaan normal untuk bobot pengklasifikasian adalah sebagai berikut: ̂ ̂ 3.28 72 Pada tugas akhir ini, Kriteria pemilihan model digunakan yaitu kriteria Generalised Cross-Validation GCV untuk menghitung prediksi error.

B. Prosedur Pemodelan Radial Basis Function Neural Network RBFNN