Metode Learning Vector Quantization LVQ
Syarat fungsi aktivasi dalam Backpropagation adalah bersifat kontinu, terdifferensial dengan mudah, dan merupakan fungsi yang tidak turun. Fungsi aktivasi yang dapat
memenuhi ketiga syarat tersebut adalah logsig, tansig, dan purelin. Metode pengujian merupakan proses inisialisasi data
yang akan diolah selanjutnya oleh Backpropagation. Data yang akan dikenali disajikan dalam bentuk vector. Masing-
masing data mempunyai target yang disajikan juga dalam bentuk vector. Target atau keluaran acuan merupakan suatu peta karakter yang menunjukkan lokasi dari vector
masukan Nurmila, et.all.
Secara umum topologi JST Backpropagation ini dapat dilihat berikut ini Nurkhozin, 20011:
Dengan menggunakan satu hidden layer, algoritma Backpropagation sebagai berikut : Step 0 :
Inisialisasi nilai bobot dengan nilai acak yang kecil. Step 1 :
Selama kondisi berhenti masih tidak terpenuhi, epoch=maks_epoch dan nilai error=target_error.
Step 2 : Untuk tiap pasangan pelatihan, kerjakan step 3 - 8.
Feed forward:
a. Step 3 Tiap unit masukan x
i
, i = 1 ,…, n menerima sinyal x
i
dan menyebarkan sinyal ini ke semua unit lapisan di atasnya unit tersembunyi.
b. Step 4 Untuk setiap unit dalam Z
j
, j=1,2,..,p dihitung input dengan menggunakan nilai bobotnya
= +
=1
… … . … … … … … … … … … … … … … … … … … … … . . … . . 2.17 Kemudian dihitung nilai output dengan menggunakan fungsi aktivasi yang dipilih
= … … … … … … … … … … … … … … … … … … … … … … … … … … … . . . 2.18
Hasil fungsi tersebut dikirim ke semua input pada layer berikutnya.
c. Step 5 Tiap unit keluaran y
k
, k = 1,…, m jumlahkan bobot sinyal masukannya, _
= +
+
=1
… . . … … … … … … … … … … … … … … … … … … … … . 2.19 Kemudian dihitung nilai output dengan menggunakan fungsi aktivasi
= ′ _ … … … … … … … … … … … … … … … … … … … … … … … … . . … … . . 2.20
Backpropagation of error:
d. Step 6 Tiap unit keluaran y
k
, k = 1,…, m menerima pola target yang saling berhubungan pada masukan pola input, hitung kesalahan informasinya,
δ
k
= t
k
– y
k
f’ y_in
k
………………...……………………...…………...………2.21 hitung koreksi bobotnya yang digunakan untuk memperbaharui nilai w
jk
: Δw
jk
= α δ
k
z
j
……………………………………………………...………………2.22 hitung koreksi biasnya yang digunakan untuk memperbaharui nilai w
ok
Δw
0k
= α δ
k
…………………………...…………………………………………..2.23 dan kirimkan δ
k
ke unit-unit pada lapisan pada layer sebelummya.
e. Step 7 Setiap unit lapisan tersembunyi z
j
, j = 1,…, p dihitung delta input yang berasal dari
unit pada layer di atasnya : �
= �
=1
… … … … … … . … … … … … … … … … … … … … … … … … … . . . . . 2.24 Kemudian nilai tersebut dikalikan dengan turunan fungsi aktivasinya untuk
menghitung informasi kesalahannya, δ
j
= δ_in
j
f’ z_in
j
……………… ………………………………….……….……2.25 hitung koreksi bobotnya digunakan untuk memperbaharui v
oj
: Δv
0j
= α δ
j
……………………..…………………………………………...…2.26 hitung koreksi bobotnya digunakan untuk memperbaharui v
ij
: Δv
ij
= α δ
j
x
i
……….……………………………………………….………...……2.27