Fungsi Aktivasi JST Backpropagation Aturan pembelajaran Learning Rule JST Backpropagation

Gambar 3. Arsitektur JST Backpropagation

2.1.4 Fungsi Aktivasi JST Backpropagation

Fungsi aktivasi yang dipakai dalam JSTB merupakan fungsi yang kontinyu, terdiferensiasi dan merupakan fungsi yang tidak turun. Fungsi aktivasi yang sering dipakai yaitu fungsi sigmoid biner Gambar 4 yang memiliki interval nilai 0,1. = 1 1 + − 2 Gambar 4. Fungsi Aktivasi Sigmoid Biner Fungsi lain yang dipakai adalah fungsi sigmoid bipolar Gambar 5 yang mirip dengan fungsi sigmoid bipolar dengan interval nilai -1,1. = 2 1 + − − 1 3 Gambar 5. Fungsi Aktivasi Sigmoid Bipolar

2.1.5 Aturan pembelajaran Learning Rule JST Backpropagation

Pelatihan JSTB terdiri dari 3 tahapan yaitu fase propagasi maju, propagasi mundur dan perubahan bobot. Pada propagasi maju, sinyal masukan xi dipropagasikan ke layar tersembunyi menggunakan fungsi aktivasi yang ditentukan. Keluaran dari setiap unit layar tersembunyi z j selanjutnya dipropagasikan maju ke layar di atasnya menggunakan fungsi aktivasi yang ditentukan sampai menghasilkan keluaran jaringan y k . = + � � �=1 4 = = 1 1 + − _ 5 Berikutnya keluaran jaringan y k akan dibandingkan dengan target yang harus dicapai t k . Selisih antara nilai keluaran dan target adalah kesalahan galat yang terjadi. _ = + �=1 6 = _ = 1 1 + − _ 7 Sehingga selisih kesalahangalat antara keluaran jaringan dengan target yang harus dicapai dirumuskan sebagai berikut : = − 8 Fase tahap kedua yaitu propagasi mundur, berdasarkan galat y k -t k , dihitung faktor δ k yang dipakai untuk mendistribusikan kesalahan di unit yk ke semua unit tersembunyi yang terhubung langsung dengan y k . δ k juga di pakai untuk mengubah bobot garis yang berhubungan langsung dengan unit keluaran. Faktor δ j dihitung disetiap unit dilayar tersembunyi sebagai dasar perubahan bobot semua garis yang berasal dari unit di layar dibawahnya. Demikian seterusnya hingga semua faktor δ di unit tersembunyi yang berhubungan langsung dengan unit masukan dihitung. � = − 1 − 9 ∆ = � � 10 �_ = � =1 11 � = �_ 1 − 12 ∆ � = � � � 13 Fase terakhir yaitu fase perubahan bobot, dimana setelah semua faktor δ dihitung, bobot semua garis dimodifikasi bersamaan. Perubahan bobot suatu garis didasarkan atas faktor δ neuron di layar atasnya. Ketiga fase tersebut diiterasi hingga jaringan dapat mengenali pola yang diberikan yaitu jika kesalahan yang terjadi lebih kecil dari batas tolerasi yang diijinkan. Perubahan bobot garis yang menuju ke unit keluaran dirumuskan : � = + ∆ 14 Perubahan bobot garis yang menuju ke unit tersembunyi dirumuskan : � � = � + ∆ � 15 Keterangan : x 1 …. x n : Masukan y 1 …. y n : Keluaran z 1 …. z n : Nilai lapisan tersembunyi v ji : Bobot antara lapisan masukan dan lapisan tersembunyi w kj : Bobot antara lapisan tersembunyi dan lapisan keluaran δ : Galat informasi α : Konstanta berkelanjutan

2.1.6 Arsitektur JST Multi Layer Perceptron MLP