Jaringan Saraf Tiruan JST Multi Layer Perceptron MLP
Gambar 15. Arsitektur jaringan propagasi balik Kusumadewi 2004
Beberapa fungsi pengaktifan yang sering digunakan dalam JST propagasi balik adalah sebagai berikut :
1 Fungsi sigmoid biner Gambar 16, yaitu fungsi biner yang memiliki rentang 0 sd 1 dengan fungsi sebagai berikut :
exp 1
1 x
x f
21
fx
x
1
Gambar 16. Sigmoid biner pada selang [ 0,1]
2 Fungsi sigmoid bipolar Gambar 17, yaitu fungsi yang memiliki rentang -1 sd 1 dengan fungsi sebagai berikut :
1 exp
1 2
x x
f
22
fx
x
1
-1
Gambar 17. Sigmoid bipolar pada selang [-1,1]
3 Fungsi linier, yaitu fungsi yang memiliki output yang sama dengan nilai inputnya, dengan fungsi sebagai berikut :
y = f x = x 23
dan turunan dari fungsinya adalah : f’ x = 1
24 Pada JST propagasi balik proses pembelajaran bersifat iterative
berulang dan dirancang untuk meminimalkan mean square error MSE antara output yang dihasilkan dengan output yang diinginkan target.
Langkah-langkah algoritma pembelajaran JST propagasi balik yang diformulasikan oleh Rumelhart et al. 1986 secara singkat adalah sebagai
berikut : a. Inisialisasi bobot, dapat dilakukan secara acak atau melalui metode
Nguyen Widrow b. Perhitungan nilai aktivasi, tiap neuron menghitung nilai aktivasi dari
input yang diterimanya. Pada lapisan input nilai aktivasi adalah fungsi identitas. Pada lapisan tersembunyi dan output nilai aktivasi dihitung
melalui fungsi aktivasi c. Penyesuaian bobot, penyesuaian bobot dipengaruhi oleh besarnya nilai
kesalahan error antara target output dan nilai output jaringan saat ini. d. Iterasi akan terus dilakukan sampai kriteria error tertentu dipenuhi.
Untuk mengimplementasikan algoritma di atas pembelajaran, JST harus memiliki suatu set data pembelajaran. Data pembelajaran harus
mencakup seluruh jenis pola yang ingin dikenal agar nantinya dapat mengenali seluruh pola yang ada.