Deskripsi dari gambar di atas adalah sebagai berikut: x
: vector pelatihan masukan y
: vector output keluaran T
: target vector pelatihan w
j
: vector bobot output ke-j C
j
: kelas hasil komputasi oleh unit output || x-w
j
|| : jarak Euclidean antara vector bobot dan unit output
Berikut ini
adalah algoritma
Learning Vector
Quantization LVQ
Nurkhozin, 2011: 1. inisialisasi vector referensi, inisialisasi learning rate
α0 2. Bila kondisi STOP belum terpenuhi, kerjakan langkah 2
–6 3. Untuk setiap vector input pelatihan x, kerjakan langkah 3- 4
4. Dapatkan nilai J sedemikian hingga ||x-w
j
|| minimum 5. Update w
j
sebagai berikut : Jika C
j
= T maka � = � � + � − … … … … … … … … … … … … … … … … . … . . 2.15
Jika C
j
≠ T maka � = � � − � − … … … … … … … … … … … … … … … … . … . . 2.16
6. Reduksi learning rate 7. Tes kondisi STOP
2.5.3 Metode Backpropagation
Metode Backpropagation biasa digunakan dalam bidang pengujian pola, metode ini umumnya digunakan pada jaringan saraf tiruan yang berjenis multi-layer feed-
forward. Feed-forward berarti aliran sinyal diarahkan searah dari masukan ke keluaran. Kesalahan yang didapatkan dari selisih output dengan target akan diumpan
balik ke masukan awal untuk mengubah parameter-parameter pembentuk jaringan JST. Setelah kesalahan keluaran kecil, maka hanya proses alur maju saja yang
digunakan Wicaksono, 2008.
Syarat fungsi aktivasi dalam Backpropagation adalah bersifat kontinu, terdifferensial dengan mudah, dan merupakan fungsi yang tidak turun. Fungsi aktivasi yang dapat
memenuhi ketiga syarat tersebut adalah logsig, tansig, dan purelin. Metode pengujian merupakan proses inisialisasi data
yang akan diolah selanjutnya oleh Backpropagation. Data yang akan dikenali disajikan dalam bentuk vector. Masing-
masing data mempunyai target yang disajikan juga dalam bentuk vector. Target atau keluaran acuan merupakan suatu peta karakter yang menunjukkan lokasi dari vector
masukan Nurmila, et.all.
Secara umum topologi JST Backpropagation ini dapat dilihat berikut ini Nurkhozin, 20011:
Dengan menggunakan satu hidden layer, algoritma Backpropagation sebagai berikut : Step 0 :
Inisialisasi nilai bobot dengan nilai acak yang kecil. Step 1 :
Selama kondisi berhenti masih tidak terpenuhi, epoch=maks_epoch dan nilai error=target_error.
Step 2 : Untuk tiap pasangan pelatihan, kerjakan step 3 - 8.
Feed forward:
a. Step 3 Tiap unit masukan x
i
, i = 1 ,…, n menerima sinyal x
i
dan menyebarkan sinyal ini ke semua unit lapisan di atasnya unit tersembunyi.
b. Step 4 Untuk setiap unit dalam Z
j
, j=1,2,..,p dihitung input dengan menggunakan nilai bobotnya
= +
=1
… … . … … … … … … … … … … … … … … … … … … … . . … . . 2.17 Kemudian dihitung nilai output dengan menggunakan fungsi aktivasi yang dipilih
= … … … … … … … … … … … … … … … … … … … … … … … … … … … . . . 2.18
Hasil fungsi tersebut dikirim ke semua input pada layer berikutnya.