54
Output yang dihasilkan dari model RBFNN merupakan kombinasi
linear dari bobot dengan fungsi aktivasi
dan bobot bias . Vektor
output dirumuskan sebagai berikut Ali Dale, 2003:
∑ 3.5
dengan, ∑
dimana, banyak neuron tersembunyi
bobot dari neuron lapisan tersembunyi ke-j menuju neuron output ke-s bobot bias menuju neuron output ke-s
fungsi aktivasi neuron tersembunyi ke – j merupakan vektor input
3. Algoritma Pembelajaran Radial Basis Function Neural Network
Proses pembelajaran dalam RBFNN sedikit berbeda dengan proses pembelajaran pada model neural network lainnya. RBFNN model ini
melakukan pembelajaran secara hybrid, yaitu menggabungkan antara pembelajaran terawasi supervised learning dan pembelajaran tak terawasi
55
unsupervised learning Wiharto dkk, 2013. Metode pembelajaran tidak terawasi unsupervised learning digunakan pada proses dari lapisan input
menuju lapisan tersembunyi dan metode pembelajaran terawasi supervised learning digunakan pada proses yang terjadi dari lapisan tersembunyi menuju
lapisan output Chen et al, 2013. Algoritma pembelajaran RBFNN terbagi menjadi tiga bagian Andrew,
2002:70, yaitu menentukan : a.
Pusat dan jarak dari setiap fungsi basis. Pada penelitian ini, pusat dan jarak dari setiap fungsi basis dicari menggunakan metode K-Means
clustering dan Fuzzy C-Means clustering, yang selanjutnya akan dibandingkan hasil klasifikasinya. Jarak yang digunakan adalah jarak
Euclide karena sederhana untuk menghitung dan lebih dapat diandalkan. 1
K-Means clustering K-Means merupakan algoritma untuk mengklasifikasikan atau
mengelompokkan objekdata berdasarkan unsurfitur ke sejumlah kelompokcluster, dengan
adalah bilangan bulat positif Teknomo, 2015. Sehingga, data dikelompokkan ke dalam kelompok atau cluster
yang memiliki karakteristik yang sama. Contoh penggunaan metode K-Means clustering :
Misalkan akan diukur dua variabel dan
untuk masing-masing empat item A, B, C, dan D. Data yang diberikan dalam Tabel 3.1:
56
Tabel 3.1. Data Pengamatan
Item Pengamatan
A B
C D
5 -1
1 -3
3 1
-2 -2
Data pada Tabel 3.1 dikelompokkan menjadi 2 clusterkelompok k = 2. Untuk mengimplementasikan metode K-Means dengan dua
cluster, pertama partisi item menjadi 2 cluster AB dan CD, lalu hitung koordinat pusat cluster rata-rata cluster, seperti pada Tabel
3.2:
Tabel 3.2. Koordinat Pusat Cluster partisi pertama
Cluster Koordinat Pusat
̅ ̅
AB
CD
Selanjutnya hitung jarak Euclide untuk masing-masing item dari pusat cluster dan menempatkan kembali masing-masing item ke cluster
terdekat. Jika sebuah item berpindah dari konfigurasi awal, pusat cluster rataan harus dihitung kembali. Untuk koordinat ke-
, , pusat cluster dapat dihitung kembali dengan cara :
̅
̅
jika item ke- ditambahkan ke dalam cluster
57
̅
̅
jika item ke- dihilangkan dari cluster
dengan adalah jumlah item pada cluster sebelumnya. Misal, item A
dengan koordinat 5,3 dipindahkan ke dalam cluster CD. Cluster baru B dan ACD dengan pusat terbaru didapat sebagai berikut:
Cluster B :
̅ ̅
Cluster ACD: ̅
̅ Untuk perhitungan jarak Euclide didapatkan:
√ √
7,810 Karena jarak A dengan AB lebih dekat, sehingga A tetap pada
cluster AB √
√ Karena jarak B dengan CD lebih dekat, sehingga B berpindah ke
cluster CD. √
√ Karena jarak C dengan CD lebih dekat, sehingga C tetap pada
cluster CD.
58
√ √
Karena jarak D dengan CD lebih dekat, sehingga D tetap pada cluster CD.
Berdasarkan pengelompokan kembali dengan jarak minimum seperti diatas, didapatkan cluster baru yang terbentuk yaitu A dan BCD
dengan nilai pusat baru:
Tabel 3.3. Koordinat Pusat Cluster Partisi Kedua
Cluster Koordinat Pusat
̅ ̅
A
BCD
Pusat cluster baru yang terbentuk adalah A 5,3 dan BCD -1,-1. Selanjutnya, perhitungan jarak Euclide dan pengelompokan dilakukan
kembali hingga didapatkan nilai pusat yang sama dengan sebelumnya stabil. Pada contoh soal ini, perhitungan jarak Euclide dan
pengelompokan kembali dilakukan dan didapatkan nilai pusat yang sama yaitu 5, 3 dan -1,-1 pada cluster A dan BCD. Kemudian,
mencari jarak maksimum masing – masing item terhadap cluster
masing – masing.
√ √
59
√ √
Berdasarkan perhitungan diatas, didapatkan jarak maksimum masing- masing cluster yaitu 0 untuk A dan
untuk BCD dengan koordinat pusat 5, 3 dan -1,-1.
2 Fuzzy C-Means Clustering
Fuzzy C-Means FCM merupakan salah satu algoritma fuzzy clustering. Fuzzy C-Means merupakan suatu teknik pengelompokan
data yang keberadaan setiap titik data dalam suatu cluster ditentukan oleh derajat keanggotaan Sri Kusumadewi, 2002: 159.
Contoh penggunaan metode Fuzzy C-Means clustering : Untuk contoh yang sama dengan metode Fuzzy C-Means clustering,
Misalkan akan diukur dua variabel dan
untuk masing-masing empat item A, B, C, dan D. Data yang diberikan dalam Tabel 3.1.
Data dikelompokkan menjadi 2 clusterkelompok k = 2, dengan pangkat atau bobot w=2, Maksimal iterasi= 100, Faktor Koreksi= 10
-5
error paling kecil, Fungsi Objektif awal t=0, J =0.
Matriks partisi awal yang terbentuk secara random dan memenuhi fungsi constraint.
U=initfcm4,2
= [
]
60
Selanjutnya menghitung
pusat-pusat cluster
yang terbentuk
berdasarkan matriks partisi awal.
Tabel 3.4. Pusat cluster pertama yang dihasilkan pada iterasi ke-1
0,1845 5
3 0,03404
0,170201 0,102121
0,1603 -1
1 0,025696
-0,0257 0,025696
0,3215 1
-2 0,103362
0,103362 -0,20672
0,3340 -3
-2 0,111556
-0,33467 -0,22311
0,274655 -0,0868
-0,30202 ∑
∑ -0,31604
-1,09963
Tabel 3.5. Pusat cluster kedua yang dihasilkan pada iterasi ke-1
0,1057 5
3 0,011172
0,055862 0,033517
0,2769 -1
1 0,076674
-0,07667 0,076674
0,2520 1
-2 0,063504
0,063504 -0,12701
0,3655 -3
-2 0,13359
-0,40077 -0,26718
0,28494 -0,35808
-0,284 ∑
∑ -1,25668
-0,99669
Sehingga pusat cluster yang terbentuk adalah:
61
Fungsi Objektif yang dihasilkan adalah ∑
∑ ∑
Detail perhitungan dapat dilihat pada Tabel 3.6.
Tabel 3.6. Perhitungan Fungsi Objektif pada iterasi ke-1
∑ ∑
0,03404 0,011172
45,06724 55,11954
1,5341 0,615823
2,149923 0,025696 0,076674
4,876272 4,052657
0,125301 0,310732 0,436033
0,103362 0,063504 2,542607
6,099219 0,26281
0,387325 0,650134
0,111556 0,13359
8,014324 4,045805
0,894046 0,54048
1,434526 4,670616
Karena |
| | | dan
maka proses dilanjutkan ke Iterasi ke-2 dengan terlebih dahulu menghitung perubahan matriks partisi
menggunakan,
Tabel 3.7. Perhitungan matriks partisi pada iterasi ke-1
Total
0,022189 0,018142
0,040331 0,550168
0,449832 0,205075
0,246752 0,451826
0,453879 0,546121
0,393297 0,163955
0,557252 0,705779
0,294221 0,124777
0,24717 0,371946
0,335469 0,664531
62
Diperoleh matriks partisi yang baru sebagai berikut:
= [
]
Iterasi Ke-2 Selanjutnya
menghitung pusat-pusat
cluster yang
terbentuk berdasarkan matriks partisi awal.
Tabel 3.8. Pusat cluster pertama yang dihasilkan pada iterasi ke-2
0,5502 5
3 0,302685
1,513423 0,908054
0,4539 -1
1 0,206006
-0,20601 0,206006
0,7058 1
-2 0,498124
0,498124 -0,99625
0,3355 -3
-2 0,11254
-0,33762 -0,22508
1,119355 1,467921
-0,10727 ∑
∑ 1,311399
-0,09583
Tabel 3.9. Pusat cluster kedua yang dihasilkan pada iterasi ke-2
0,4498 5
3 0,202349
1,011745 0,607047
0,5461 -1
1 0,298248
-0,29825 0,298248
0,2942 1
-2 0,086566
0,086566 -0,17313
0,6645 -3
-2 0,441601
-1,3248 -0,8832
1,028764 -0,52474
-0,15104
63
∑ ∑
-0,51007 -0,14682
Sehingga pusat cluster yang terbentuk adalah: [
] Fungsi Objektif yang dihasilkan adalah
∑ ∑
∑ Detail perhitungan dapat dilihat pada Tabel 3.10.
Tabel 3.10. Perhitungan Fungsi Objektif pada iterasi ke-2
∑ ∑
0,302685 0,202349 23,18993
40,2633 7,019237 8,147238 15,16647
0,206006 0,298248 6,543409
1,555221 1,347985 0,463841 1,811826
0,498124 0,086566 3,722836
5,714596 1,854433
0,49469 2,349123
0,11254 0,441601
22,21403 9,634053
2,499962 4,254406 6,754368 26,08179
Karena |
| | | dan
maka proses dilanjutkan ke Iterasi berikutnya dengan terlebih dahulu menghitung perubahan matriks
partisi menggunakan,
64
Tabel 3.11. Perhitungan matriks partisi pada iterasi ke-2
Total
0,043122 0,024837
0,067959 0,634535
0,365465 0,152826
0,642996 0,795821
0,192035 0,807965
0,268612 0,174991
0,443603 0,605524
0,394476 0,045017
0,103798 0,148815
0,3025 0,6975
Diperoleh matriks partisi yang baru sebagai berikut:
= [
]
Demikian seterusnya sampai terpenuhi kondisi |
| atau t
MaxIter. Proses pengerjaannya berhenti pada iterasi ke-4 t=4, karena terpenuhinya salah satu syarat yaitu:
| | | |
Pusat cluster yang dihasilkan pada iterasi terakhir adalah:
Berdasarkan pusat cluster tersebut, diperoleh informasi sebagai berikut:
a Cluster yang pertama, terdiri dari objek yang memiliki rata-
rata X1 sebesar dan rata-rata X2 sebesar
b Cluster yang pertama, terdiri dari objek yang memiliki rata-
rata X1 sebesar dan rata-rata X2 sebesar
65
Matriks partisi U pada iterasi terakhir:
= [
]
Diperoleh informasi mengenai kecenderungan dari masing-masing objek untuk masuk ke cluster tertentu. Setiap objek memiliki derajat
keanggotaan tertentu pada setiap cluster. Derajat keanggotaan terbesar pada suatu cluster menunjukkan bahwa objek itu cenderung menjadi
anggota dari cluster tersebut. Secara detail, dapat dilihat pada Tabel 3.12:
Tabel 3.12. Derajat Keanggotaan Setiap Objek pada Iterasi Terakhir
Objek Variabel
Derajat Keanggotaan pada Iterasi Terakhir
Kecenderungan Data Masuk
pada Cluster
A 5
3 0,755252
0,244748 B
-1 1
0,081881 0,918119
C 1
-2 0,510735
0,489265 D
-3 -2
0,199382 0,800618
Hasil akhirnya adalah terbentuknya 2 buah cluster, dimana untuk cluster pertama beranggotakan objek A dan C, sementara objek B dan
D menjadi anggota cluster kedua.
66
Selanjutnya, perhitungan jarak Euclide dengan menggunakan Persamaan 2.27.
√ √
√ √
√ √
√ √
Berdasarkan perhitungan diatas, didapatkan jarak maksimum masing- masing cluster yaitu
untuk AC dan untuk BD.
b. Jumlah neuron pada lapisan tersembunyi sama dengan jumlah fungsi
basis. c.
Bobot lapisan output jaringan optimum. Pada penelitian ini, bobot lapisan output jaringan optimum ditentukan dengan menggunakan metode global
ridge regression. Metode global ridge regression mengestimasi bobot dengan menambahkan parameter regulasi tunggal yang bernilai positif
pada sum square error SSE. Estimasi bobot terbaik didapatkan dari hasil akhir dengan SSE terkecil. SSE terkecil atau jumlah kuadrat
kesalahan minimal didapatkan dengan metode kuadrat terkecil least
67
square. Penerapannya pada analisis regresi, metode kuadrat terkecil bertujuan untuk memudahkan menyelesaikan masalah optimasi. Model
linear yang digunakan adalah ∑
, input data {
} , dan target klasifikasi variabel output
{ ̂ }
, ∑ ̂
3.6 dengan,
̂ target klasifikasi variabel output ke
nilai variabel output ke banyak pengamatan
Untuk menentukan nilai optimum bobot , diturunkan fungsi SSE
menjadi: ∑
̂ 3.7
Berdasarkan Persamaan 3.5 didapatkan: 3.8
Selanjutnya Persamaan 3.8 disubstitusikan ke Persamaan 3.7 dengan hasil sama dengan nol,
∑ ̂
3.9 ∑
∑ ̂
3.10 ∑
∑ ̂
3.11
68
Karena maka diperoleh Persamaan seperti Persamaan
3.11 untuk menentukan bobot. Untuk memperoleh penyelesaian
tunggal, Persamaan 3.11 ditulis dengan notasi vektor menjadi: ̂
3.12 dengan
[ ]
[ ] ̂ [
̂ ̂
̂ ]
Karena terdapat Persamaan untuk setiap nilai , maka Persamaan 3.12
dapat ditulis sebagai:
[ ]
[ ̂
̂ ̂]
̂ 3.13
dengan
[ ]
Matriks merupakan matriks desain. Komponen ke dari saat
bobot pada nilai optimum adalah Orr, 1996:43: ∑
̅ ̂
3.14 dimana,
69
̅ [
]
Sehingga diperoleh persamaan sebagai berikut:
[ ]
[ ̂
̂ ̂]
̂ 3.15
Persamaan 3.15 disubstitusikan ke Persamaan 3.13 menjadi ̂
̂ 3.16
̂ ̂
3.17 ̂
̂ 3.18
̂ merupakan nilai bobot dan A adalah matriks perkalian dengan
Selanjutnya ditambahkan parameter regulasi yang bernilai positif pada SSE sehingga diperoleh Orr, 1996:24.
∑ ̂
∑ 3.19
dengan ̂
target klasifikasi variabel output ke nilai variabel output ke
banyak data pengamatan parameter regulasi
bobot dari neuron lapisan tersembunyi ke-j menuju neuron output ke-s
70
Bobot optimum diperoleh dengan mendifferensialkan Persamaan 3.19 dengan variabel bebas yang ada, kemudian ditentukan
penyelesaiannya untuk differensial sama dengan nol. ∑
̂ 3.20
∑ ∑
̂ 3.21
∑ ∑
̂ 3.22
∑ ∑
̂ 3.23
Berdasarkan Persamaan 3.8, Persamaan 3.23 menjadi: ∑
∑ ̂
3.24 Dapat dinotasikan sebagai:
̂ ̂
3.25 Karena terdapat
Persamaan untuk setiap nilai , maka Persamaan 3.25 dapat ditulis sebagai:
[ ]
[ ̂
̂ ̂
] [
̂ ̂
̂] ̂
̂ 3.26
dengan,
71
parameter regulasi ̂ vektor bobot klasifikasi
̂ vektor target klasifikasi matriks desain dengan {
} sebagai kolom
[ ]
perkalian matriks desain dan vektor bobot
[ ]
[ ̂
̂ ̂]
̂
Berdasarkan definisi-definisi yang telah disebutkan, diperoleh persamaan sebagai berikut Orr, 1996:21:
̂ ̂
3.27 ̂
̂ ̂
Dimana adalah matriks identitas berukuran
. Jadi diperoleh persamaan normal untuk bobot pengklasifikasian adalah sebagai berikut:
̂ ̂
3.28
72
Pada tugas akhir ini, Kriteria pemilihan model digunakan yaitu kriteria Generalised Cross-Validation GCV untuk menghitung prediksi
error.
B. Prosedur Pemodelan Radial Basis Function Neural Network RBFNN