Kemudian hitung nila output dengan menggunakan fungsi aktivasi =
1 1 +
− _
… … … … … … … … … … … … … … … … … … … … … … … … … … . 3.4
1
= 1
1 +
−0.63966
= 0.65468
g. Alur mundur Hitung faktor unit kesalahan informasinya
� : � = � − ∗
1 1 +
− _
∗ 1 − 1
1 +
− _
… … … … … … … … … . . 3.5 �
1
= 1 − 0.65468 ∗ 0.65468 ∗ 1 − 0.65468 = 0.07807
Hitung suku perubahan bobot w Δ
jk
seperti pada persamaan 2.22 : ∆
11
= 0.05 ∗ 0.07807 ∗ 0.99791 = 0.00390
Hitung suku perubahan bobot w Δ
0k
dengan persamaan 2.23 : ∆
01
= 0.05 ∗ 0.07807 = 0.00390
Hitung delta input untuk hidden layer dengan persamaan 2.24: �
1
= 0.07807 ∗ 0.641 = 0.05004
Hitung faktor kesalahan unit tersembunyi : � = �_
∗ 1
1 +
−
∗ 1 − 1
1 +
−
… … … … … … . . 3.6 �
1
= 0.05004 ∗ 0.99791 ∗ 1 − 0.99791 = 0.00010
Hitung suku perubahan bobot v seperti pada persamaan 2.27: ∆
11
= 0.05 ∗ 0.00010 ∗ 0 = 0
∆
21
= 0.05 ∗ 0.00010 ∗ 1 = 0.00010
∆
31
= 0.05 ∗ 0.00010 ∗ 1 = 0.00010
∆
41
= 0.05 ∗ 0.00010 ∗ 1 = 0.00010
∆
51
= 0.05 ∗ 0.00010 ∗ 0 = 0.00000
∆
61
= 0.05 ∗ 0.00010 ∗ 1 = 0.00010
∆
71
= 0.05 ∗ 0.00010 ∗ 1 = 0.00010
∆
81
= 0.05 ∗ 0.00010 ∗ 1 = 0.00010
∆
91
= 0.05 ∗ 0.00010 ∗ 1 = 0.00010
∆
101
= 0.05 ∗ 0.00010 ∗ 1 = 0.00010
∆
111
= 0.05 ∗ 0.00010 ∗ 1 = 0.00010
∆
121
= 0.05 ∗ 0.00010 ∗ 1 = 0.00010
∆
131
= 0.05 ∗ 0.00010 ∗ 0 = 0.00010
∆
141
= 0.05 ∗ 0.00010 ∗ 0 = 0.00010
∆
151
= 0.05 ∗ 0.00010 ∗ 1 = 0.00010
∆
161
= 0.05 ∗ 0.00010 ∗ 1 = 0.00010
Hitung suku perubahan bobot v
0j
dengan menggunakan persamaan 2.26: ∆
= 0.05 ∗ 0.00001 = 0.00001
Hitung bobot w baru dengan persamaan 2.28:
01
= 0 + 0.00390 = 0.00390
11
= 0.641 + 0.00390 = 0.64490
Hitung bobot v baru dengan persamaan 2.29:
01
= 0 + 0.00001 = 0.00001
11
= 0.786 + 0.00043 = 0.78600
21
= 0.487 + 0.00043 = 0.48701
31
= 0.623 + 0.00043 = 0.62301
41
= 0.345 + 0.00043 = 0.34501
51
= 0.459 + 0.00043 = 0.45900
61
= 0.987 + 0.00043 = 0.98701
71
= 0.217 + 0.00043 = 0.21701
81
= 0.389 + 0.00043 = 0.38901
91
= 0.678 + 0.00043 = 0.67801
101
= 0.278 + 0.00043 = 0.27801
111
= 0.786 + 0.00043 = 0.76801
121
= 0.564 + 0.00043 = 0.56401
131
= 0.288 + 0.00043 = 0.28800
141
= 0.987 + 0.00043 = 0.98700
151
= 0.367 +
0.00043 = 0.36701
161
= 0.467 +
0.00043 = 0.46701
4. Proses Pengujian Backpropagation
Proses pengujian merupakan proses dimana komputer mengenali data test dengan menggunakan nilai bobot yang telah diperoleh dari proses pelatihan. Proses pengujian
merupakan proses dimana komputer mengenali data test dengan menggunakan nilai bobot yang telah diperoleh dari proses pelatihan. Berikut ini langkah-langkah
Pengujiannya: a. Hitung data test menggunakan perhitungan pada alur maju. Perhitungan ini
dilakukan satu persatu terhadap setiap hasil w dan v dari setiap data. Jika data hasil sudah sesuai dengan dengan tujuan maka perhitungan dihentikan. Misalkan data
masukan 0 1 1 1 0 0 0 1 0 1 1 1 0 0 0 1 1
Hitung dengan persamaan 2.30
1
= 0.00176 + 0 ∗ 0.786 + 1 ∗ 0.4701 + 1 ∗ 0.62301 + 1 ∗ 0.34501
+ 0 ∗ 0.459 + 0 ∗ 0.98701 + 0 ∗ 0.21701 + 1 ∗ 0.38901
+ 0 ∗ 0.67801 + 1 ∗ 0.27801 + 1 ∗ 0.76801 + 1 ∗ 0.56401
+ 0 ∗ 0.288 + 0 ∗ 0.987 + 1 ∗ 36701 + 1 ∗ 0.46701 = 4.28985
= 1
1 +
− _
… … … … … … … … … … … … … … … … . … … … … … … … … … … … … … 2.31
1 = 1
1 +
−4.28985
= 0.98648
b. Operasi pada output layer, dihitungh dengan persamaan 2.32: _
1
= 0.00435 + 0.5971 ∗ 0.64451 =
0.67108
= 1
1 +
− _
… … … … … … … . … … … … … … … … … … … … … … … … . … . . 3.7
1
= 1
1 +
−0.67108
=
0.66174
Nilai y
k
0.5 , maka memenuhi target 1.
3.3 Perancangan Arsitektur Jaringan
Jaringan yang dirancang dalam sistem ini adalah jaringan Learning Vector Quantization dan jaringan Backpropagation. Berikut ini merupakan perancangan
arsitektur jaringan yang akan di implementasikan ke dalam program.
3.3.1 Jaringan Learning Vector Quantization
Arsitektur jaringan Learning Vector Quantization yang dirancang dalam penelitian ini terdiri dari 1600 masukan sesuai dengan jumlah matriks Grayscale citra hasil
prepocessing sebanyak 40x40 piksel nilai masukan x, dan pada penelitian ini jenis kelas yang dimaksud adalah jenis uang kertas rupiah, seperti pada Tabel 3.16
Tabel 3.16 Penentuan Kelas Jaringan LVQ
Kelas Keluaran
Jenis Uang 1
y
1
1000 2
y
2
2000 3
y
3
5000 4
y
4
10000 5
y
5
20000 6
y
6
50000 7
y
7
100000
Arsitektur Jaringan Saraf Tiruan yang digunakan pada penelitian ini dapat dilihat pada Gambar 3.6.
Gambar 3.6 Arsitektur Jaringan LVQ
Keterangan : x
1
-x
1600
adalah nilai piksel dari citra masukan w
1,1
adalah nilai bobot yang dia ambil dari citra masukan ||x=w
1
|| adalah jarak terdekat antara bobot dan nilai masukan y
1
-y
7
adalah kelas yang didefinisikan sebagai keluaran berupa jenis uang kertas rupiah
3.3.2 Jaringan Backpropagation
Arsitektur jaringan Backpropagation yang dirancang dalam penelitian ini terdiri dari 1600 masukan sesuai dengan jumlah matriks biner citra hasil prepocessing sebanyak
40x40 piksel sebagai nilai masukan jaringan, terdiri dari 1 lapisan tersembunyi dengan 6 neuron, dan 1 lapisan keluaran dengan 3 neuron untuk keluaran sebagai target,
fungsi sigmoid biner digunakan sebagai fungsi aktivasi pada semua lapisan Jaringan Saraf Tiruan, dimana vector keluaran sebagai target dapat dilihat pada Tabel 3.17
berikut :
Tabel 3.17 Target keluaran jaringan Backpropagation
Keluaran Target Nilai Biner
Jenis Uang 1
001 1000
2 010
2000 3
011 5000
4 100
10000 5
101 20000
6 110
50000 7
111 100000
Arsitektur Jaringan Saraf Tiruan yang digunakan pada penelitian ini dapat dilihat pada Gambar 3.7.
Gambar 3.7 Arsitektur Jaringan Backpropagation
Keterangan: x = Masukan input berupa nilai piksel citra uang.
v
ij
= Bobot pada lapisan tersembunyi. w
ij
= Bobot pada lapisan keluaran. v
oj
= Bias pada lapisan tersembunyi w
oj
= Bias pada lapisan tersembunyi dan lapisan keluaran. j
= 1,2,3,…..,n. n = Jumlah unit pengolah pada lapisan tersembunyi.
k = Jumlah unit pengolah pada lapisan keluaran. y = Keluaran hasil target.