Algoritma Backpropogation Potensial Permukaan Tubuh

Gambar 2.16 Grafik Fungsi Sigmoid Bipolar [Sri. Kusumadewi. 2003].

2.4.2 Algoritma Backpropogation

Jaringan Backpropagation dilatih dengan metode pelatihan pengawasan supervised learning dimana jaringan dilatih dengan pasangan pola masukan X i dan pola keluaran Y k , informasi yang masuk melalui lapisan masukan akan mengalir menuju lapisan keluaran yang hasilnya merupakan tanggapan jaringan terhadap informasi yang masuk. Apabila masih terdapat perbedaan antara keluaran jaringan saat itu dengan keluaran yang diinginkan bobot koneksi akan disesuaikan mulai dari lapisan keluaran menuju lapisan masukan sampai perbedaan tersebut seminimal mungkin sesuai dengan target error yang diinginkan terpenuhi atau maksimal epoch tercapai. Algoritma ini banyak dipakai, karena prosedur belajarnya didasarkan pada hubungan yang sederhana, jika output memberikan hasil yang salah, maka pembobot dikoreksi supaya error dapat diperkecil dan respon jaringan selanjutnya diharapkan akan lebih mendekati harga yang benar. Backpropagation juga berkemampuan untuk menangani pelatihan pembobot pada lapisan hidden. Kekurangan utama pada Backpropagation adalah konvergensi hasil yang tidak dijamin, tetapi dengan perhitungan matematis yang sederhana algoritma ini tetap banyak dipakai. Algoritma pembelajarannya adalah sebagai berikut: Hak Cipta © milik UPN Veteran Jatim : Dilarang mengutip sebagian atau seluruh karya tulis ini tanpa mencantumkan dan menyebutkan sumber. 1. Propagasi Maju Tahapan ini dimulai dengan memberikan suatu pola masukan pada jaringan. Misal untuk satu vektor masukan x = x 1 , x 2 , …, x n . Tiap unit input mendistribusikan pola masukan tersebut ke unit pengolah lapisan hidden [Laurence.Fausett.1994]. Masing-masing unit hidden Z j , j=1,..,p menjumlahkan bobot sinyal input. NET input untuk unit hidden ke j adalah     n i ij i oj j v x v in z 1 _ ……………2.10 Anggap bahwa aktivasi dari sinyal ini sama dengan NET input, maka output dari sinyal adalah z j = f z_in j . Sinyal ini dikirim ke semua unit dalam lapisan output. Masing-masing unit output Y k , k=1,…,m menjumlahkan sinyal input bobotnya.     p i jk j ok k w z w in y 1 _ ……………2.11 Output sinyalnya menjadi : y k = fy_in k . 2. Propagasi Balik Tahapan propagasi balik dimulai dengan membandingkan respon jaringan keseluruhan dengan output yang diinginkan. Masing-masing unit output Y k, k=1,…,m menerima korespondensi pola target ke pola training input [Laurence. Fausett. 1994]. Informasi error dihitung dengan :  k = t k – y k f ‘ y_in k ……………………..2.12 Hak Cipta © milik UPN Veteran Jatim : Dilarang mengutip sebagian atau seluruh karya tulis ini tanpa mencantumkan dan menyebutkan sumber. Koreksi bobot dihitung untuk mengupdate w jk : w jk =   k z j ……….…………….2.13 Koreksi bias dihitung untuk mengupdate w ok : w ok =   k ……….…………….2.14 Masing-masing unit hidden Z j, j=1,…,p menjumlahkan delta input dari unit-unit dalam lapisan di atas.    m k jk k j w in 1 _   ……….………….…2.15 Informasi error dihitung dengan mengalikan terhadap turunan fungsi aktivasinya.  j = _in j f ‘ z_in j ……….………….…2.16 Koreksi bobot dihitung untuk mengupdate v ij : v ij =   j x i ………..…………....2.17 Koreksi bias dihitung untuk mengupdate v oj : v oj =   j ……….…………….2.18 3. Update Bobot dan Bias Masing-masing unit output Y k ,k=1,…,m mengupdate bias dan bobotnya j = 0,…,p dengan persamaan : w jk new = w jk old + w jk ……………2.19 Masing-masing unit hidden Zj, j=1,…,p mengupdate bias dan bobotnya i=0,…,n dengan persamaan : v ij new = v ij old + v ij ……………2.20 Hak Cipta © milik UPN Veteran Jatim : Dilarang mengutip sebagian atau seluruh karya tulis ini tanpa mencantumkan dan menyebutkan sumber.

2.4.3 Momentum