Supervised Learning Algoritma Quickpropagation

Salah satu keuntungan dari fungsi ini adalah memiliki derivatif yang mudah dihitung : s i = i = s i 1 – s i ……………………………………2.5 i fungsi sigmoid di atas memiliki nilai output antara 0 dan 1. Jika diinginkan nilai output antara –1 dan 1, dapat digunakan fungsi bipolar sigmoid ─ - 1 t i Derivatif dari fungsi tersebut adalah : 1+ 1 – s i …… et pola contoh atau data pelatihan training data se  f log net  net i Nilai dar berikut : 2 S i = g log net i = ───── ..................................................2.6 1+ e -ne  s i = g log net i = ½ si …………………..…2.7  net i

2.5 Supervised Learning

Tujuan pada pembelajaran supervised learning adalah untuk menentukan nilai bobot-bobot koneksi di dalam jaringan sehingga jaringan dapat melakukan pemetaan mapping dari input ke output sesuai dengan yang diinginkan. Pemetaan ini ditentukan melalui satu s t. Setiap pasangan pola p terdiri dari vektor input xp dan vektor target tp.Sete lesai pelatihan k ringanmenghasilkan nilai output tp. lah se , ji a diberikan masukan xp seharusnya ja Besarnya perbedaan antara nilai vektor target dengan output aktual diukur dengan nilai error yang disebut juga dengan cost function : E = 2 1   t p n - s p n P p n 2 ………………………………….…...2.8 ini pada dasarnya sama dengan mencari suatu nilai minimum global dari E.

2.6 Algoritma Quickpropagation

w  = di mana n adalah banyaknya unit pada output layer. Tujuan dari training Salah satu metode paling awal yang diusulkan untuk mengatasi masalah lamanya waktu training adalah dengan menambahkan term momentum : ij ij w E   ij   t + w   t-1 ……………………….........…2.9 ini dapat bekerja dengan baik pada k di mana parameter momentum m akan menentukan besarnya pengaruh perubahan bobot pada iterasi sebelumnya. Cara asus tertentu, namun tidak bersifat umum. Kadang-kadang malah diperoleh hasil yang lebih baik tanpa menggunakan momentum sama sekali Riedmiller, 1994.Ada beberapa algoritma yang telah diusulkan untuk mempercepat proses training pada jaringan multilayer. Di antaranya adalah algoritma Quickprop Fahlman, 1988, resilient propagation RPROP. Pada algoritma Quickprop dilakukan pendekatan dengan asumsi bahwa kurva fungsi error terhadap masing-masing bobot penghubung berbentuk parabola yang terbuka ke atas, dan gradien dari kurva error untuk suatu bobot tidak terpengaruh oleh bobot-bobot yang lain Fahlman, 1988. Dengan demikian perhitungan perubahan bobot hanya menggunakan informasi lokal pada masing- masing bobot. Perubahan bobot pada algoritma Quickprop dirumuskan sebagai berikut : 1 1               E t w    t w t w E t w t w E E t w …………………..2.10 Dimana : : perubahan bobot : perubahan bobot pada epoch sebelumnya ing rate t w  1   t w  : learn t w E   : derivatif error 1   t w : derivatif error pada epoch sebelumnya

2.7. Norma