Metode JST Backpropagation
2.2. Metode JST Backpropagation
Perambatan galat mundur (Backpropagation)
Fungsi bipolar sigmoid ini dapat juga dihasilkan dari:
adalah sebuah metode sistematik untuk pelatihan multiplayer jaringan saraf tiruan. Metode ini memiliki dasar matematis yang kuat, obyektif dan algoritma ini mendapatkan bentuk persamaan dan nilai koefisien dalam formula dengan meminimalkan jumlah kuadrat galat error melalui
dengan turunan fungsi adalah :
model yang dikembangkan.
h ' (x) = [1 + h(x)][1 – h(x)]
1. Dimulai dengan lapisan masukan, hitung keluaran dari setiap
4. Binary sigmoid
elemen pemroses melalui lapisan luar. Binary sigmoid memiliki range dari (0,1) dan didefinisikan :
2. Hitung kesalahan pada lapisan luar yang merupakan selisih antara data aktual dan target. Transformasikan kesalahan tersebut pada kesalahan yang sesuai di sisi masukan elemen pemroses.
3. Propagasi balik kesalahan-kesalahan ini pada keluaran setiap dan turunan/ fungsi differentialnya adalah : elemen pemroses ke kesalahan yang terdapat pada masukan.
f '(x) = f(x).[1-f(x)] Ulangi proses ini sampai masukan tercapai.
Ilustrasi fungsi di atas digambarkan pada gambar 2.2:
Ubah seluruh bobot dengan menggunakan kesalahan pada sisi masukan elemen dan luaran elemen pemroses yang terhubung.
2.2.5. Algoritma Pembelajaran
Algoritma pembelajaran backpropagation terdiri dari dua tahap, yaitu feedforward dari pola pelatihan input, backpropagation dari errornya, serta untuk melakukan pengujian
dari data yang sudah dilatih maka dilakukan proses adjustment of Input Units
2.2.1. Arsitektur
Hiden Units
Output Units
the weights.
Algoritma Pembelajaran sebagai berikut :
1 1 Step 0
Inisialisasi pembobot (set ke nilai-nilai kecil secara
acak)
Step 1
Saat kondisi pemberhentian false, kerjakan langkah 2-9
Untuk tiap-tiap pasangan pelatihan, kerjakan step 3-8 x1
Feedforward: Step 3.
Tiap input unit (X i , i = 1……n) menerima sinyal input xi dan mengirimkan sinyal ini ke semua unit-unit pada
layer di atasnya (hidden units).
Step 4.
Tiap hidden unit (Z j , j = 1…..p) menjumlahkan sinyal- sinyal input pembobotnya,
x i v n ij , menerapkan fungsi aktivasinya menghitung sinyal outputnya : i=1
z_in j =v oj +
z j = f(z_in j ), dan mengirimkan sinyal ini ke semua unit-unit pada layer di
Gambar 2.2. Backpropagation neural network
2. Hitung selisih antara nilai luar prediksi dan nilai target atau :
dan menerapkan fungsi aktivasinya menghitung sinyal outputnya
sinyal latihan untuk setiap keluaran. y = f(y_in
k ).
3. Kuadratkan setiap keluaran kemudian hitung seluruhnya. Ini
Backpropagation of error :
merupakan kuadrat kesalahan untuk contoh lain. Step 6. Tiap output unit (Y k , k = 1……..m) menerima suatu
( − ( )) menghitung batas informasi errornya, k = (t k –y k )f (y_in k ), mengkalkulasi batas koreksi pembobotnya (digunakan untuk
pola target yang bersesuaian dengan pola pelatihan input,
Root Mean Square Error (RMS Error).
meng update wjk selanjutnya),
Dihitung sebagai berikut :
jk = k z j , mengkalkulasi batas koreksi biasnya (digunakan untuk meng
w
Hitung SSE.
Hasilnya dibagi dengan perkalian antara
update w 0k selanjutnya),
banyaknya data pada latihan dan banyaknya
w 0k = k ,
luaran, kemudian diakarkan.
dan mengirimkan k pada unit-unit layer di bawahnya. Step 7. Tiap-tiap hidden unit (Z j , j = 1……p) menjumlahkan delta input-inputnya (dari unit-unit layer diatasnya),
_in j = k w jk ,
Dimana :
m mengalikan dengan turunan dari fungsi aktivasinya untuk k=1
RMSE : Root Mean Square Error
mengkalkulasi batas informasi errornya,
SSE : Sum Square Error
j = _in j f (z_in j ),
: Banyaknya data pada latihan
mengkalkulasi batas koreksi pembobotnya (digunakan untuk
: Banyaknya Keluaran
meng update vij kemudian), v ij = j x i ,
dan mengkalkulasi batas koreksi biasnya (digunakan untuk meng update v 0j selanjutnya), v 0j = j ,