Gambar 2.8 Arsitektur Jaringan Backpropagation
Sumber : Kusumadewi, 2003, 236
2.3.1 Algoritma Backpropagation
Algoritma backpropagation dapat dibagi ke dalam 2 bagian, yaitu:
1 Algoritma Pelatihan Pembelajaran Training, terdiri atas 3 tahap yaitu:
perambatan maju forward propagation, perambatan mundur untuk mengubah nilai bobot backpropagation dan tahap pengaturan bobot.
2 Algoritma Pengenalan Recognition, menggunakan perambatan maju. Diyah
Puspitaningrum, 2006, 128 Algoritma pelatihan backpropagation adalah sebagai berikut:
1 Inisialisasi bobot ambil bobot awal dengan nilai random yang kecil.
Tentukan pula nilai angka pembelajaran α, nilai toleransi error bila
menggunakan nilai ambang sebagai kondisi berhenti dan set maksimum epoch bila menggunakan banyaknya epoch sebagai kondisi berhenti.
2 While kondisi berhenti tidak terpenuhi, maka untuk setiap pasangan elemen
yang akan dilatih, lakukan langkah – langkah berikut :
Langkah pertama yaitu dengan melakukan tahap Feed Forward : 1
Setiap input x
i
dari unit ke-1 sampai unit ke-n pada lapisan input mengirimkan sinyal input ke semua unit yang ada di lapisan atasnya ke
lapisan tersembunyi: x
i
. 2
Pada setiap unit di lapisan tersembunyi z
j
; i = 1,2,...p menjumlahkan sinyal- sinyal input terbobot:
z_in
j
= v
0j
+
n
i ij
i
v x
1
…2.2 gunakan fungsi aktivasi untuk menghitung sinyal outputnya:
z
j
= fz_in
j
…2.3 dan kirimkan sinyal tersebut ke semua unit di lapisan atasnya unit-unit
output. 3
Tiap–tiap unit output Y
k
, k=1,2,3,...m menjumlahkan sinyal-sinyal input terbobot.
y_in
k
= w
0k
+
p
j jk
j
w z
1
…2.4 gunakan fungsi aktivasi untuk menghitung sinyal outputnya:
y
k
= fy_in
k
…2.5 dan kirimkan sinyal tersebut ke semua unit di lapisan atasnya unit-unit
output. Setelah tahap Feed Forward kemudian lakukan Tahap Backpropagation :
4 Tiap–tiap unit output Y
k
, k=1,2,3,...m menerima target pola yang berhubungan dengan pola input pembelajaran, hitung informasi errornya:
δ
k
= t
k
– y
k
f’y_in
k
…2.6 kemudian hitung koreksi bobot yang nantinya akan digunakan untuk
memperbaiki nilai w
jk
: Δw
jk
= α δ
k
z
j
…2.7
hitung juga koreksi bias yang nantinya akan digunakan untuk memperbaiki nilai w
0k
: Δw
0k
= α δ
k
…2.8 kirimkan
δ
k
ini ke unit-unit yang ada di lapisan bawahnya. 5
Tiap-tiap unit tersembunyi z
j
; j = 1,2,...p menjumlahkan delta inputnya dari unit-unit yang berada di lapisan atasnya:
δ_in
j
=
m
k jk
k
w
1
…2.9
kalikan nilai ini dengan turunan dari fungsi aktivasinya untuk menghitung informasi error:
δ
j
= δ_in
j
f’z_in
j
…2.10 kemudian hitung koreksi bobot yang nantinya akan digunakan untuk
memperbaiki nilai v
ij
: Δv
ij
= α δ
j
x
i
…2.11 hitung juga koreksi bias yang nantinya akan digunakan untuk memperbaiki
nilai v
0j
: Δv
0j
= α δ
j
…2.12 Kemudian lakukan Tahap Update Bobot dan Bias :
6 Tiap–tiap unit output Y
k
, k=1,2,3,...m memperbaiki bias dan bobotnya j=0,1,2,...,p:
w
jk
baru = w
jk
lama + Δw
jk
…2.13 Tiap-tiap unit tersembunyi z
j
; j = 1,2,...p memperbaiki bias dan bobotnya i=0,1,2,...,n:
v
ij
baru = v
ij
lama + Δv
ij
…2.14
7 Tes kondisi berhenti, bila mencapai maksimum epoch atau kuadrat error
target error. Diyah Puspitaningrum, 2006, 129-130 Algoritma pengenalan recognition dengan menggunakan
backpropagation hanya perlu menjalankan tahap feedforward hingga mendapatkan nilai y
k
. Pasangan y
k
adalah output dari metode backpropagation. Keterangan :
X
i
: Unit masukan i Z
j :
Unit tersembunyi j z_in
j
: Sinyal
input terbobotimasukan untuk unit tersembunyi z
j
: Sinyal keluaranaktivasi dari unit tersembunyi Z
j
v
0j
: Bias pada unit tersembunyi Y
k
: Unit keluaran k y_in
k
: Sinyal input terbobotimasukan untuk unit keluaran Y
k
y
k
: Sinyak keluaranaktivasi dari unit keluaran Y
k
w
0k
: Bias pada unti keluaran δ
k
: Informasi error pada unit keluaran Y
k
yang dipropagasi balik ke unit
tersembunyi δ_in
j
: Jumlah delta input pada lapisan tersembunyi dari unit pada lapisan diatasnyalapisan keluaran Y
k
δ
j
: Informasi errorpada unit tersembunyi Z
j
Δw
jk
: Koreksi bobot antara lapisan keluaran Y
k
dengan lapisan tersembunyi Z
j
Δw
0k
: Koreksi bias antara lapisan keluaran Y
k
dengan lapisan tersembunyi Z
j
Δv
ij
: Koreksi bobot antara lapisan tersembunyi Z
j
dengan lapisan masukan Xi
α : Laju pembelajaran learning rate
t
k
: Target output
2.4 Proses Pengambangan