Arsitektur Propagasi Balik Fungsi Aktivasi Propagasi Balik Laju Pembelajaran Learning Rate

17

2.4.3 Jaringan Syaraf Tiruan Propagasi Balik Backpropagation

Propagasi balik merupakan algoritma pembelajaran yang menggunakan banyak lapisan untuk mengubah bobot-bobot yang terhubung dengan neuron- neuron yang ada lapisan tersembunyinya. Algoritma propagasi balik menggunakan error output untuk mengubah nilai bobot-bobotnya dalam arah mundur backward. Untuk mendapatkan error ini, tahap perambatan maju lorward propagation harus dikerjakan terlebih dahulu Kusumadewi, 2003.

2.4.3.1 Arsitektur Propagasi Balik

Propagasi balik memiliki beberapa unit neuron yang ada dalam satu atau lebih layar tersembunyi. Gambar 2.10 adalah arsitektur Propagasi balik dengan n buah masukan ditambah sebuah bias, serta m buah unit keluaran. V ji merupakan bobot garis dari unit masukan X i ke unit layar tersembunyi Z j V j0 merupakan bobot garis yang menghubungkan bias di unit masukan ke unit layar tersembunyi Z j . W kj merupakan bobot dari unit layar tersembunyi Z j ke unit keluaran y k W k0 merupakan bobot dari bias di layar tersembunyi ke unit keluaran Z k . 18 Gambar 2.14 Arsitektur Propagasi Balik JJ Siang, 2005

2.4.3.2 Fungsi Aktivasi Propagasi Balik

Fungsi aktivasi pada metode propagasi balik menggunakan sebuah fungsi aktivasi beserta turunan dari fungsi tersebut. Propagasi balik dapat menggunakan fungsi aktivasi sigmoid biner yang memiliki range 0,1 maupun sigmoid bipolar yang memiliki range -1,1 beserta turunan fungsinya. Pemilihan fungsi aktivasi tergantung pada kebutuhan nilai keluaran jaringan yang diharapkan. Bila keluaran jaringan yang diharapkan ada yang bernilai negatif, maka digunakan fungsi sigmoid bipolar, sebaliknya bila nilai keluaran jaringan yang diharapkan bernilai positif atau sama dengan nol, maka digunakan fungsi sigmoid biner. Selain fungsi sigmoid fungsi yang bias digunakan dalam metode propagasi balik adalah fungsi linear. 19 Fungsi sigmod biner : = Dengan turunan = 1 − Fungsi sigmod bipolar = Dengan turunan ′ = [1 + ][1 − ] Fungsi sigmoid memiliki nilai maksimum = 1. Maka untuk pola yang targetnya 1, pola masukan dan keluaran harus terlebih dahulu ditransformasikan sehingga semua polanya memiliki range yang sama seperti fungsi sigmoid yang dipakai. Alternatif lain adalah menggunakan fungsi aktivasi sigmoid hanya pada layar yang bukan layar keluaran. Pada layar keluaran, fungsi aktivasi yang dipakai adalah fungsi identitas : lx = x.

2.4.3.3 Laju Pembelajaran Learning Rate

Laju belajar merupakan suatu konstanta yang ditentukan pada awal pembelajaran. Laju belajar berfungsi memperbaiki kecepatan komputasi back propagation untuk mencapai target yang diinginkan. Pada tahap pembelajaran propagasi balik, penyesuaian bobot dilakukan berdasarkan nilai kesalahan yang dicapai oleh jaringan dengan tujuan agar suatu saat tercapai konfigurasi bobot 2.18 2.19 2.20 2.21 30 yang optimal, sehingga respon yang dihasilkan oleh jaringan mendekati suatu kondisi yang diinginkan. Nilai laju pembelajaran yang optimal bergantung pada kasus yang dihadapi.

2.4.3.4 Algoritma Propagasi Balik