besar dari batas toleransi, maka bobot setiap garis dari jaringan akan dimodifikasi untuk mengurangi kesalahan.
2.2.2 Fase Propagasi Mundur
Berdasarkan kesalahan t
k
– y
k
dihitung faktor δ
k
k= 1, ..., m yang dipakai untuk mendistribusikan kesalahan di unit Y
k
ke semua unit tersembunyi yang terhubung langsung dengan Y
k
. δ
k
juga dipakai untuk mengubah bobot garis yang berhubungan langsung dengan unit keluaran.
Dengan cara yang sama, dihitung faktor δ
j
di setiap layer tersembunyi sebagai dasar perubahan bobot semua garis yang berasal dari unit tersembunyi di layer di
bawahnya. Dan seterusnya hingga semua faktor δ di unit tersembunyi yang terhubung langsung dengan unit masukan dihitung.
2.2.3 Fase Modifikasi Bobot
Setelah semua faktor δ dihitung, bobot semua garis dimodifikasi bersamaan. Perubahan bobot suatu garis didasarkan atas faktor δ neuron di layer atasnya.
Sebagai contoh, perubahan bobot garis yang menuju ke layer keluaran didasarkan atas yang ada di unit keluaran
Ketiga fase tersebut diulang-ulang hingga kondisi penghentian dipenuhi. Umumnya kondisi penghentian yang sering dipakai adalah jumlah interasi atau
kesalahan. Iterasi akan dihentikan jika jumlah iterasi yang dilakukan sudah melebihi jumlah maksimum iterasi yang ditetapkan, atau jika kesalahan yang terjadi sudah
lebih kecil dari batas toleransi yang ditetapkan.
2.2.4 Prosedur Pelatihan
Seperti halnya jaringan syaraf yang lain, pada jaringan feedfoward umpan maju pelatihan dilakukan dalam rangka perhitungan bobot sehingga pada akhir pelatihan
akan diperoleh bobot-bobot yang baik. Selama proses pelatihan, bobot-bobot diatur secara iteratif untuk meminimumkan
error kesalahan yang terjadi. Error
kesalahan dihitung berdasarkan rata-rata kuadrat kesalahan MSE. Rata-rata kuadrat kesalahan juga dijadikan dasar perhitungan unjuk kerja fungsi aktivasi.
Universita Sumatera Utara
Sebagian besar pelatihan untuk jaringan feedfoward umpan maju menggunakan gradien dari fungsi aktivasi untuk menentukan bagaimana mengatur bobot-bobot
dalam rangka meminimumkan kinerja. Gradien ini ditentukan dengan menggunakan suatu teknik yang disebut backpropagation.
Pada dasarnya, algoritma pelatihan standar backpropagation
akan menggerakkan bobot dengan arah gradien negatif. Prinsip dasar dari algoritma
backpropagation adalah memperbaiki bobot-bobot jaringan dengan arah yang
membuat fungsi aktivasi menjadi turun dengan cepat. Langkah-langkah yang dilakukan pada prosedur pelatihan adalah:
Langkah 0 :
Inisialisasi bobot
keterhubungan antara
neuron dengan
menggunakan bilangan acak kecil -0.5 sampai +0.5.
Langkah 1 :
Kerjakan langkah 2 sampai langkah 9 selama kondisi berhenti yang ditentukan tidak dipenuhi.
Langkah 2 :
Kerjakan langkah 3 sampai langkah 8 untuk setiap pasangan pelatihan.
Propagasi maju Langkah 3
: Setiap unit masukan x
i,
i = 1,…., n menerima sinyal masukan x
i
, dan menyebarkannya ke seluruh unit pada lapisan tersembunyi
Langkah 4 :
Setiap unit tersembunyi xi, I = 1,…….,p jumlahkan bobot sinyal masukannya :
2.5
v
oj
= bias pada unit tersembunyi j aplikasikan fungsi aktivasinya untuk menghilangkan sinyal keluarannya, z
j
= f z_in
j
, dan kirimkan sinyal ini keseluruh unit pada lapisan diatasnya unit
keluaran
Langkah 5 :
tiap unit keluaran yk, k = 1,…….m jumlahkan bobot sinyal masukannya :
2.6
∑
=
+ =
n i
ij i
j j
v x
vo in
z
1
_
∑
=
+ =
p j
jk j
k k
w z
wo in
y
1
_
Universita Sumatera Utara
w
ok
= bias pada unit keluaran k dan aplikasikan fungsi aktivasinya untuk menghitung sinyal keluarannya, y
k
= fy_in
k
Propagasi balik
Langkah 6 : tiap unit keluaran yk, k = 1,…..,m menerima pola target yang
saling berhubungan pada masukan pola pelatihan, hitung kesalahan informasinya,
2.7 hitung koreksi bobotnya digunakan untuk mempengaruhi w
jk
nantinya, 2.8
hitung koreksi biasnya digunakan untuk mempengaruhi w
ok
nantinya 2.9
dan kirimkan δ
k
ke unit-unit pada lapisan dibawahnya, Langkah 7
: Setiap unit lapisan tersembunyi zj, j = 1,…..p jumlah hasil perubahan masukannya dari unit-unit lapisan diatasnya,
2.10 kalikan dengan turunan fungsi aktivasinya untuk menghitung
informasi kesalahannya, 2.11
2.12 hitung koreksi bias
2.13 Langkah 8
: Update bobot dan bias pada hubungan antar lapisan 2.14
2.15
Langkah 9 : Tes kondisi terhenti
_
k k
k k
in y
f y
t −
= δ
j k
jk
z w
αδ =
∆
k k
wo αδ
= ∆
∑
=
=
m k
jk k
j
w in
1
_ δ
δ
_ _
j j
j
in z
f in
δ δ
=
i j
ij
x v
αδ =
∆
j j
vo αδ
= ∆
jk jk
jk
w lama
w baru
w ∆
+ =
ij ij
ij
v lama
v baru
v ∆
+ =
Universita Sumatera Utara
Backpropagation secara garis besar terdiri dari dua fase, fase maju dan fase mundur. Selama fase maju algoritma ini memetakan nilai masukan untuk
mendapatkan keluaran yang diharapkan. untuk menghasilkan keluaran pola maka didapatkan dari rekapitulasi bobot masukan dan dipetakan untuk fungsi aktivasi
jaringan. keluaran dapat dihitung sebagai berikut : =
2.16 di mana,
. = +
2.17 dimana,
o
j
: input dari j unit w
ij
: bobot yang dihubungkan dari unit i ke unit j a
net,j
: jaringan keluaran untuk j unit θ
j
: bias untuk j unit
Di dalam fase mundur, pola keluaran aktual output kemudian dibandingkan dengan keluaran yang dikehendaki dan sinyal error dihitung untuk masing – masing output.
Sinyal-sinyal kemudian merambat mundur dari lapisan output ke masing-masing unit dalam lapisan lapisan transisi memberikan kontribusi langsung ke output, dan bobot
disesuaikan iterasi selama proses pembelajaran, kemudian error diperkecil selama descent direction. fungsi error pada output neuron digambarkan sebagai berikut :
= 2.18
dimana, n
: angka pada modul keluaran didalam lapisan output t
k
: keluaran yang dikendaki dari keluaran unit k o
k
: keluaran jaringan dari keluaran unit k Parameter α merupakan laju pemahaman yang menentukan kecepatan iterasi. Nilai
α terletak antara 0 dan 1 0 ≤ a ≤ 1. Semakin besar harga α , semakin sedikit iterasi yang dipakai. Akan tetapi jika harga α terlalu besar, maka akan merusak pola yang
sudah benar sehingga pemahaman menjadi lambat. Satu siklus pelatihan yang melibatkan semua pola disebut epoch.
Pemilihan bobot awal sangat mempengaruhi jaringan syaraf tiruan dalam
Universita Sumatera Utara
mencapai minimum global atau mungkin lokal saja terhadap nilai error
kesalahan dan cepat tidaknya proses pelatihan menuju kekonvergenan. Apabila bobot awal terlalu besar maka input masukan ke setiap lapisan tersembunyi atau
lapisan output keluaran akan jatuh pada daerah dimana turunan fungsi sigmoidnya akan sangat kecil. Apabila bobot awal terlalu kecil, maka input masukan ke setiap
lapisan tersembunyi atau lapisan output keluaran akan sangat kecil. Hal ini akan menyebabkan proses pelatihan berjalan sangat lambat. Biasanya bobot awal
diinisialisasi secara random dengan nilai antara -0.5 sampai 0.5. Setelah pelatihan selesai dilakukan, jaringan dapat dipakai untuk pengenalan pola.
Keuntungan dari metode backpropagation yaitu : 1. Back-Propagation sangat luas digunakan dalam paradigma jaringan saraf, dan
berhasil diaplikasikan dalam berbagai bidang. Misalnya : pengenalan pola militer, diagnosa kedokteran, klasifikasi gambar, menerjemahkan kode, dan
dalam deteksi jenis penyakit paru. 2. Back-Propagation dapat digunakan untuk dua atau lebih lapisan dengan bobot
dan menggunakan aturan pengalaman belajar. 3. Pembelajaran dan penyesuaian prosedur didasari konsep yang relatif sederhana.
4. Dapat memisahkan pola yang terpisah secara linear maupun pola yang terpisah tidak linear. Terpisah linear adalah dipisahkan 1 garis linear 2 pola tersebut.
Adapun kelemahannya yaitu : Waktunya Konvergen, karena pelatihan memerlukan ratusan atau ribuan contoh dalam kumpulan pelatihan, dan mungkin
membutuhkan waktu komputasi sepanjang hari atau lebih untuk menyelesaikan pelatihan.
2.3 Algoritma Kohonen