Proses Pelatihan Backpropagation Proses Pelatihan dan Pengujian Jaringan

Kemudian hitung nila output dengan menggunakan fungsi aktivasi = 1 1 + − _ … … … … … … … … … … … … … … … … … … … … … … … … … … . 3.4 1 = 1 1 + −0.63966 = 0.65468 g. Alur mundur Hitung faktor unit kesalahan informasinya � : � = � − ∗ 1 1 + − _ ∗ 1 − 1 1 + − _ … … … … … … … … … . . 3.5 � 1 = 1 − 0.65468 ∗ 0.65468 ∗ 1 − 0.65468 = 0.07807 Hitung suku perubahan bobot w Δ jk seperti pada persamaan 2.22 : ∆ 11 = 0.05 ∗ 0.07807 ∗ 0.99791 = 0.00390 Hitung suku perubahan bobot w Δ 0k dengan persamaan 2.23 : ∆ 01 = 0.05 ∗ 0.07807 = 0.00390 Hitung delta input untuk hidden layer dengan persamaan 2.24: � 1 = 0.07807 ∗ 0.641 = 0.05004 Hitung faktor kesalahan unit tersembunyi : � = �_ ∗ 1 1 + − ∗ 1 − 1 1 + − … … … … … … . . 3.6 � 1 = 0.05004 ∗ 0.99791 ∗ 1 − 0.99791 = 0.00010 Hitung suku perubahan bobot v seperti pada persamaan 2.27: ∆ 11 = 0.05 ∗ 0.00010 ∗ 0 = 0 ∆ 21 = 0.05 ∗ 0.00010 ∗ 1 = 0.00010 ∆ 31 = 0.05 ∗ 0.00010 ∗ 1 = 0.00010 ∆ 41 = 0.05 ∗ 0.00010 ∗ 1 = 0.00010 ∆ 51 = 0.05 ∗ 0.00010 ∗ 0 = 0.00000 ∆ 61 = 0.05 ∗ 0.00010 ∗ 1 = 0.00010 ∆ 71 = 0.05 ∗ 0.00010 ∗ 1 = 0.00010 ∆ 81 = 0.05 ∗ 0.00010 ∗ 1 = 0.00010 ∆ 91 = 0.05 ∗ 0.00010 ∗ 1 = 0.00010 ∆ 101 = 0.05 ∗ 0.00010 ∗ 1 = 0.00010 ∆ 111 = 0.05 ∗ 0.00010 ∗ 1 = 0.00010 ∆ 121 = 0.05 ∗ 0.00010 ∗ 1 = 0.00010 ∆ 131 = 0.05 ∗ 0.00010 ∗ 0 = 0.00010 ∆ 141 = 0.05 ∗ 0.00010 ∗ 0 = 0.00010 ∆ 151 = 0.05 ∗ 0.00010 ∗ 1 = 0.00010 ∆ 161 = 0.05 ∗ 0.00010 ∗ 1 = 0.00010 Hitung suku perubahan bobot v 0j dengan menggunakan persamaan 2.26: ∆ = 0.05 ∗ 0.00001 = 0.00001 Hitung bobot w baru dengan persamaan 2.28: 01 = 0 + 0.00390 = 0.00390 11 = 0.641 + 0.00390 = 0.64490 Hitung bobot v baru dengan persamaan 2.29: 01 = 0 + 0.00001 = 0.00001 11 = 0.786 + 0.00043 = 0.78600 21 = 0.487 + 0.00043 = 0.48701 31 = 0.623 + 0.00043 = 0.62301 41 = 0.345 + 0.00043 = 0.34501 51 = 0.459 + 0.00043 = 0.45900 61 = 0.987 + 0.00043 = 0.98701 71 = 0.217 + 0.00043 = 0.21701 81 = 0.389 + 0.00043 = 0.38901 91 = 0.678 + 0.00043 = 0.67801 101 = 0.278 + 0.00043 = 0.27801 111 = 0.786 + 0.00043 = 0.76801 121 = 0.564 + 0.00043 = 0.56401 131 = 0.288 + 0.00043 = 0.28800 141 = 0.987 + 0.00043 = 0.98700 151 = 0.367 + 0.00043 = 0.36701 161 = 0.467 + 0.00043 = 0.46701

4. Proses Pengujian Backpropagation

Proses pengujian merupakan proses dimana komputer mengenali data test dengan menggunakan nilai bobot yang telah diperoleh dari proses pelatihan. Proses pengujian merupakan proses dimana komputer mengenali data test dengan menggunakan nilai bobot yang telah diperoleh dari proses pelatihan. Berikut ini langkah-langkah Pengujiannya: a. Hitung data test menggunakan perhitungan pada alur maju. Perhitungan ini dilakukan satu persatu terhadap setiap hasil w dan v dari setiap data. Jika data hasil sudah sesuai dengan dengan tujuan maka perhitungan dihentikan. Misalkan data masukan 0 1 1 1 0 0 0 1 0 1 1 1 0 0 0 1 1 Hitung dengan persamaan 2.30 1 = 0.00176 + 0 ∗ 0.786 + 1 ∗ 0.4701 + 1 ∗ 0.62301 + 1 ∗ 0.34501 + 0 ∗ 0.459 + 0 ∗ 0.98701 + 0 ∗ 0.21701 + 1 ∗ 0.38901 + 0 ∗ 0.67801 + 1 ∗ 0.27801 + 1 ∗ 0.76801 + 1 ∗ 0.56401 + 0 ∗ 0.288 + 0 ∗ 0.987 + 1 ∗ 36701 + 1 ∗ 0.46701 = 4.28985 = 1 1 + − _ … … … … … … … … … … … … … … … … . … … … … … … … … … … … … … 2.31 1 = 1 1 + −4.28985 = 0.98648 b. Operasi pada output layer, dihitungh dengan persamaan 2.32: _ 1 = 0.00435 + 0.5971 ∗ 0.64451 = 0.67108 = 1 1 + − _ … … … … … … … . … … … … … … … … … … … … … … … … . … . . 3.7 1 = 1 1 + −0.67108 = 0.66174 Nilai y k 0.5 , maka memenuhi target 1.

3.3 Perancangan Arsitektur Jaringan

Jaringan yang dirancang dalam sistem ini adalah jaringan Learning Vector Quantization dan jaringan Backpropagation. Berikut ini merupakan perancangan arsitektur jaringan yang akan di implementasikan ke dalam program.

3.3.1 Jaringan Learning Vector Quantization

Arsitektur jaringan Learning Vector Quantization yang dirancang dalam penelitian ini terdiri dari 1600 masukan sesuai dengan jumlah matriks Grayscale citra hasil prepocessing sebanyak 40x40 piksel nilai masukan x, dan pada penelitian ini jenis kelas yang dimaksud adalah jenis uang kertas rupiah, seperti pada Tabel 3.16 Tabel 3.16 Penentuan Kelas Jaringan LVQ Kelas Keluaran Jenis Uang 1 y 1 1000 2 y 2 2000 3 y 3 5000 4 y 4 10000 5 y 5 20000 6 y 6 50000 7 y 7 100000 Arsitektur Jaringan Saraf Tiruan yang digunakan pada penelitian ini dapat dilihat pada Gambar 3.6. Gambar 3.6 Arsitektur Jaringan LVQ Keterangan : x 1 -x 1600 adalah nilai piksel dari citra masukan w 1,1 adalah nilai bobot yang dia ambil dari citra masukan ||x=w 1 || adalah jarak terdekat antara bobot dan nilai masukan y 1 -y 7 adalah kelas yang didefinisikan sebagai keluaran berupa jenis uang kertas rupiah

3.3.2 Jaringan Backpropagation

Arsitektur jaringan Backpropagation yang dirancang dalam penelitian ini terdiri dari 1600 masukan sesuai dengan jumlah matriks biner citra hasil prepocessing sebanyak 40x40 piksel sebagai nilai masukan jaringan, terdiri dari 1 lapisan tersembunyi dengan 6 neuron, dan 1 lapisan keluaran dengan 3 neuron untuk keluaran sebagai target, fungsi sigmoid biner digunakan sebagai fungsi aktivasi pada semua lapisan Jaringan Saraf Tiruan, dimana vector keluaran sebagai target dapat dilihat pada Tabel 3.17 berikut : Tabel 3.17 Target keluaran jaringan Backpropagation Keluaran Target Nilai Biner Jenis Uang 1 001 1000 2 010 2000 3 011 5000 4 100 10000 5 101 20000 6 110 50000 7 111 100000 Arsitektur Jaringan Saraf Tiruan yang digunakan pada penelitian ini dapat dilihat pada Gambar 3.7. Gambar 3.7 Arsitektur Jaringan Backpropagation Keterangan: x = Masukan input berupa nilai piksel citra uang. v ij = Bobot pada lapisan tersembunyi. w ij = Bobot pada lapisan keluaran. v oj = Bias pada lapisan tersembunyi w oj = Bias pada lapisan tersembunyi dan lapisan keluaran. j = 1,2,3,…..,n. n = Jumlah unit pengolah pada lapisan tersembunyi. k = Jumlah unit pengolah pada lapisan keluaran. y = Keluaran hasil target.