Metode JST Backpropagation

2.2. Metode JST Backpropagation

Perambatan galat mundur (Backpropagation)

Fungsi bipolar sigmoid ini dapat juga dihasilkan dari:

adalah sebuah metode sistematik untuk pelatihan multiplayer jaringan saraf tiruan. Metode ini memiliki dasar matematis yang kuat, obyektif dan algoritma ini mendapatkan bentuk persamaan dan nilai koefisien dalam formula dengan meminimalkan jumlah kuadrat galat error melalui

dengan turunan fungsi adalah :

model yang dikembangkan.

h ' (x) = [1 + h(x)][1 – h(x)]

1. Dimulai dengan lapisan masukan, hitung keluaran dari setiap

4. Binary sigmoid

elemen pemroses melalui lapisan luar. Binary sigmoid memiliki range dari (0,1) dan didefinisikan :

2. Hitung kesalahan pada lapisan luar yang merupakan selisih antara data aktual dan target. Transformasikan kesalahan tersebut pada kesalahan yang sesuai di sisi masukan elemen pemroses.

3. Propagasi balik kesalahan-kesalahan ini pada keluaran setiap dan turunan/ fungsi differentialnya adalah : elemen pemroses ke kesalahan yang terdapat pada masukan.

f '(x) = f(x).[1-f(x)] Ulangi proses ini sampai masukan tercapai.

Ilustrasi fungsi di atas digambarkan pada gambar 2.2:

Ubah seluruh bobot dengan menggunakan kesalahan pada sisi masukan elemen dan luaran elemen pemroses yang terhubung.

2.2.5. Algoritma Pembelajaran

Algoritma pembelajaran backpropagation terdiri dari dua tahap, yaitu feedforward dari pola pelatihan input, backpropagation dari errornya, serta untuk melakukan pengujian

dari data yang sudah dilatih maka dilakukan proses adjustment of Input Units

2.2.1. Arsitektur

Hiden Units

Output Units

the weights.

Algoritma Pembelajaran sebagai berikut :

1 1 Step 0

Inisialisasi pembobot (set ke nilai-nilai kecil secara

acak)

Step 1

Saat kondisi pemberhentian false, kerjakan langkah 2-9

Untuk tiap-tiap pasangan pelatihan, kerjakan step 3-8 x1

Feedforward: Step 3.

Tiap input unit (X i , i = 1……n) menerima sinyal input xi dan mengirimkan sinyal ini ke semua unit-unit pada

layer di atasnya (hidden units).

Step 4.

Tiap hidden unit (Z j , j = 1…..p) menjumlahkan sinyal- sinyal input pembobotnya,

 x i v n ij , menerapkan fungsi aktivasinya menghitung sinyal outputnya : i=1

z_in j =v oj +

z j = f(z_in j ), dan mengirimkan sinyal ini ke semua unit-unit pada layer di

Gambar 2.2. Backpropagation neural network

2. Hitung selisih antara nilai luar prediksi dan nilai target atau :

dan menerapkan fungsi aktivasinya menghitung sinyal outputnya

sinyal latihan untuk setiap keluaran. y = f(y_in

k ).

3. Kuadratkan setiap keluaran kemudian hitung seluruhnya. Ini

Backpropagation of error :

merupakan kuadrat kesalahan untuk contoh lain. Step 6. Tiap output unit (Y k , k = 1……..m) menerima suatu

( − ( )) menghitung batas informasi errornya,  k = (t k –y k )f  (y_in k ), mengkalkulasi batas koreksi pembobotnya (digunakan untuk

pola target yang bersesuaian dengan pola pelatihan input,

Root Mean Square Error (RMS Error).

meng update wjk selanjutnya),

Dihitung sebagai berikut :

jk =  k z j , mengkalkulasi batas koreksi biasnya (digunakan untuk meng

w

Hitung SSE.

Hasilnya dibagi dengan perkalian antara

update w 0k selanjutnya),

banyaknya data pada latihan dan banyaknya

w 0k =  k ,

luaran, kemudian diakarkan.

dan mengirimkan k pada unit-unit layer di bawahnya. Step 7. Tiap-tiap hidden unit (Z j , j = 1……p) menjumlahkan delta input-inputnya (dari unit-unit layer diatasnya),

_in j =   k w jk ,

Dimana :

m mengalikan dengan turunan dari fungsi aktivasinya untuk k=1

RMSE : Root Mean Square Error

mengkalkulasi batas informasi errornya,

SSE : Sum Square Error

 j = _in j f (z_in j ),

: Banyaknya data pada latihan

mengkalkulasi batas koreksi pembobotnya (digunakan untuk

: Banyaknya Keluaran

meng update vij kemudian), v ij =  j x i ,

dan mengkalkulasi batas koreksi biasnya (digunakan untuk meng update v 0j selanjutnya), v 0j =  j ,