Pelatihan Jaringan Menggunakan Nguyen Widrow dan Adaptive Learning Perancangan Jaringan Propagasi Balik

29 Hasil dari ekstraksi fitur di atas adalah : 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 1 1 1 1 1 1 1 0 0 0 0 1 1 1 1 1 1 0 0 0 0 1 1 1 1 1 1 0 0 1 0 0 1 1 1 1 0 0 1 1 0 0 1 1 1 1 0 0 0 0 0 0 1 1 1 0 0 0 0 0 0 0 0 1 1 0 0 1 1 1 1 0 0 1 1 0 0 1 1 1 1 0 0 0

3.4. Pelatihan Jaringan Menggunakan Nguyen Widrow dan Adaptive Learning

Rate Setelah melakukan tahapan ekstraksi fitur, tahapan berikutnya yaitu klasifikasi dengan menggunakan jaringan syaraf tiruan propagasi balik. Dalam tahapan ini terhadap dua proses yaitu proses pelatihan dan pengujian. Pada proses pelatihan dilakukan proses pelatihan jaringan syaraf tiruan dengan menggunakan nilai fitur yang didapat dari data yang dilatih. Setelah proses pelatihan, masuk ke proses pengujian yaitu dengan menggunakan nilai fitur yang didapatkan dari data yang diuji. Jaringan harus dirancang terlebih dahulu sebelum data dilatih dan diuji. Pelatihan citra dengan jaringan syaraf tiruan propagasi balik pada penelitian ini menggunakan metode Nguyen-Widrow pada tahap inisialisasi bobot awal dilanjutkan dengan metode adaptive learning rate pada saat koreksi bobot pada proses backward propagation. Secara umum alur proses pelatihan jaringan syaraf tiruan menggunakan metode Nguyen-Widrow dan adaptive learning rate dapat dilihat pada Gambar 3.9 : Universitas Sumatera Utara 30     n i ij i j j v x v in z 1 _     p i jk i k j w z w in y 1 _ _ k k k k in y f y t     j k jk z W    k k w    Universitas Sumatera Utara 31 Gambar 3.9. Diagram alur proses training citra alfanumerik    m i jk k j w in 1 _   _ _ j j j in z f in     i j jk x v    j j v    jk jk jk w lama w baru w    ij ij ij w lama v baru v    Universitas Sumatera Utara 32

3.5. Perancangan Jaringan Propagasi Balik

3.5.1. Arsitektur Jaringan Propagasi Balik Jaringan syaraf tiruan yang dibangun memiliki satu lapisan input, satu lapisan tersembunyi dan satu lapisan output dengan parameter sebagai berikut. 1. Jumlah Node pada Input Layer Subjek penelitian ini adalah karakter alfanumerik huruf dan angka, terdiri dari himpunan karakter huruf besar 26 karakter dan angka 10 karakter, sehingga didapat 36 karakter. Berdasarkan batasan masalah yang penulis telah jabarkan, ukuran jendela untuk tiap karakter adalah 10x10 piksel, maka jumlah node input pada jaringan harus dapat menampung tiap nilai dari piksel karakter, sehingga jumlah node input yang digunakan adalah 100 node. 2. Jumlah Node pada Output Layer Output pada jaringan adalah berupa kode ASCII masing-masing karakter yaitu sebanyak 8 digit. Untuk itu harus disusun pola output biner sebanyak 8 node. 3. Jumlah Node pada Hidden Layer Jumlah unit hidden yang digunakan adalah sebanyak 6 node. Pada algoritma Nguyen-Widrow, semakin besar jumlah node pada hidden layer maka faktor skala juga akan semakin besar. Jika faktor skala besar maka nilai bobot juga akan bertambah dan interval bias dari input layer menuju hidden layer akan semakin besar juga. Penambahan bias pada pembelajaran dengan metode backpropagation akan meningkatkan sinyal keluaran dari sebuah layer. Gambar 3.10. Arsitektur Jaringan Universitas Sumatera Utara 33 3.5.2. Algoritma Backpropagation  Inisialisasi bobot ambil bobot awal dengan nilai random yang cukup kecil.  Kerjakan langkah-langkah berikut selama kondisi berhenti bernilai FALSE : 1. Untuk tiap-tiap pasangan elemen yang akan dilakukan pembelajaran, kerjakan : Feedforward : a. Tiap-tiap unit input X i , i=1,2,3,...,n menerima sinyal x i dan meneruskan sinyal tersebut ke semua unit pada lapisan yang ada diatasnya lapisan tersembunyi. b. Tiap-tiap unit tersembunyi Z j , j=1,2,3,...,p menjumlahkan sinyal- sinyal input terbobot :     n i ij i j j v x v in z 1 _ Gunakan fungsi aktivasi untuk menghitung sinyal outputnya : Z j = fz_in j Dan kirimkan sinyal tersebut ke semua unit di lapisan atasnya unit- unit output. c. Tiap-tiap unit output Y k , k=1,2,3,...,m menjumlahkan sinyal-sinyal input terbobot.     p i jk i k j w z w in y 1 _ Gunakan fungsi aktivasi untuk menghitung sinyal outputnya : y k =fy_in k Dan kirimkan sinyal tersebut ke semua unit dilapisan atasnya unit-unit output. Backpropagation d. Tiap-tiap unit output Yk, k=1,2,3,...,m menerima target pola yang berhubungan dengan pola input pembelajaran, hitung informasi error nya : _ k k k k in y f y t     Kemudian hitung koreksi bobot yang nantinya akan digunakan untuk memperbaiki nilai w jk : Universitas Sumatera Utara 34 j k jk z W    Hitung juga koreksi bias yang nantinya akan digunakan untuk memperbaiki nilai w 0k : k k w    Kirimkan  k ini ke unit-unit yang ada dilapisan bawahnya. e. Tiap-tiap unit tersembunyi Z j , j=1,2,3,...,p menjumlahkan delta inputnya dari unit-unit yang berada pada lapisan diatasnya :    m i jk k j w in 1 _   Kalikan nilai ini dengan turunan dari fungsi aktivasinya untuk menghitung informasi error : _ _ j j j in z f in     Kemudian hitung koreksi bobot yang nantinya akan digunakan untuk memperbaiki nilai v ij : i j jk x v    Kemudian hitung koreksi bias yang nantinya akan digunakan untuk memperbaiki nilai v 0j : j j v    f. Tiap-tiap unit output Y k , k=1,2,3,...,m memperbaiki bias dan bobotnya j=0,1,2,...,p: jk jk jk w lama w baru w    Tiap-tiap unit tersembunyi Zj, j=1,2,3,...,p memperbaiki bias dan bobotnya i=0,1,2,...,n ij ij ij w lama v baru v    2. Tes Kondisi berhenti Universitas Sumatera Utara 35

BAB IV HASIL DAN PEMBAHASAN