17
2.4.3 Jaringan Syaraf Tiruan Propagasi Balik Backpropagation
Propagasi balik merupakan algoritma pembelajaran yang menggunakan banyak lapisan untuk mengubah bobot-bobot yang terhubung dengan neuron-
neuron yang ada lapisan tersembunyinya. Algoritma propagasi balik menggunakan error output untuk mengubah nilai bobot-bobotnya dalam arah mundur
backward. Untuk mendapatkan error ini, tahap perambatan maju lorward propagation harus dikerjakan terlebih dahulu Kusumadewi, 2003.
2.4.3.1 Arsitektur Propagasi Balik
Propagasi balik memiliki beberapa unit neuron yang ada dalam satu atau lebih layar tersembunyi. Gambar 2.10 adalah arsitektur Propagasi balik dengan n
buah masukan ditambah sebuah bias, serta m buah unit keluaran. V
ji
merupakan bobot garis dari unit masukan X
i
ke unit layar tersembunyi Z
j
V
j0
merupakan bobot garis yang menghubungkan bias di unit masukan ke unit layar tersembunyi
Z
j
. W
kj
merupakan bobot dari unit layar tersembunyi Z
j
ke unit keluaran y
k
W
k0
merupakan bobot dari bias di layar tersembunyi ke unit keluaran Z
k
.
18
Gambar 2.14 Arsitektur Propagasi Balik JJ Siang, 2005
2.4.3.2 Fungsi Aktivasi Propagasi Balik
Fungsi aktivasi pada metode propagasi balik menggunakan sebuah fungsi aktivasi beserta turunan dari fungsi tersebut. Propagasi balik dapat menggunakan
fungsi aktivasi sigmoid biner yang memiliki range 0,1 maupun sigmoid bipolar yang memiliki range -1,1 beserta turunan fungsinya. Pemilihan fungsi aktivasi
tergantung pada kebutuhan nilai keluaran jaringan yang diharapkan. Bila keluaran jaringan yang diharapkan ada yang bernilai negatif, maka digunakan fungsi
sigmoid bipolar, sebaliknya bila nilai keluaran jaringan yang diharapkan bernilai positif atau sama dengan nol, maka digunakan fungsi sigmoid biner. Selain fungsi
sigmoid fungsi yang bias digunakan dalam metode propagasi balik adalah fungsi linear.
19
Fungsi sigmod biner : =
Dengan turunan = 1 −
Fungsi sigmod bipolar =
Dengan turunan
′
= [1 + ][1 − ] Fungsi sigmoid memiliki nilai maksimum = 1. Maka untuk pola yang
targetnya 1, pola masukan dan keluaran harus terlebih dahulu ditransformasikan sehingga semua polanya memiliki range yang sama seperti fungsi sigmoid yang
dipakai. Alternatif lain adalah menggunakan fungsi aktivasi sigmoid hanya pada layar yang bukan layar keluaran. Pada layar keluaran, fungsi aktivasi yang dipakai
adalah fungsi identitas : lx = x.
2.4.3.3 Laju Pembelajaran Learning Rate
Laju belajar merupakan suatu konstanta yang ditentukan pada awal pembelajaran. Laju belajar berfungsi memperbaiki kecepatan komputasi back
propagation untuk mencapai target yang diinginkan. Pada tahap pembelajaran propagasi balik, penyesuaian bobot dilakukan berdasarkan nilai kesalahan yang
dicapai oleh jaringan dengan tujuan agar suatu saat tercapai konfigurasi bobot
2.18
2.19
2.20
2.21
30
yang optimal, sehingga respon yang dihasilkan oleh jaringan mendekati suatu kondisi yang diinginkan. Nilai laju pembelajaran yang optimal bergantung pada
kasus yang dihadapi.
2.4.3.4 Algoritma Propagasi Balik