Gambar di atas adalah jaringan dengan n buat unit inputX, sebuah layar tersembunyiZ yang terdiri dari p buah unit, dan m buah unit
outputY. Jaringan layar jamak dapat menyelesaikan masalah yang lebih
kompleks dibandingkan dengan layar tunggal, meskipun kadangkala proses pelatihan lebih kompleks dan lama.
c. Jaringan Reccurent
Model jaringan recurrent mirip dengan jaringan layar tunggal ataupun ganda. Hanya saja, ada neuron output yang memberikan sinyal
pada unit input atau sering disebut dengan feedback loop.
2.3.2 Fungsi Aktivasi, Bias, dan Threshold
Dalam jaringan syaraf tiruan, fungsi aktivasi dipakai untuk menentukan keluaran suatu neuron. Argumen fungsi aktivasi adalah net masukan kombinasi
linear masukan dan bobotnya. Beberapa fungsi aktivasi yang sering dipakai adalah sebagai berikut :
a. Fungsi Threshold Batas Ambang
fx = 1 jika x a dan fx = 0 jika x a
2.1 Untuk beberapa kasus, fungsi threshold yang dibuat tidak berharga
0 atau 1, tapi berharga -1 atau 1 sering disebut threshold bipolar. Sehingga :
fx = 1 jika x a dan fx = -1 jika x a
2.2
b. Fungsi Sigmoid
fx = 2.3
Fungsi sigmoid sering dipakai karena nilai fungsinya yang terletak antara 0 dan 1 dan dapat diturunkan dengan mudah.
f`x = fx 1-fx 2.4
c. Fungsi Identitas
fx = x 2.5
Fungsi identitas sering dipakai apabila kita menginginkan keluaran jaringan berupa sembarang bilangan riil bukan hanya pada range [0,1] atau
[-1,1].
Kadang-kadang dalam jaringan ditambahkan pula sebuah unit masukan yang nilainya selalu = 1. Unit yang sedemikian itu disebut bias. Bias dapat
dipandang sebagai sebuah unit input yang nilainya = 1. Bias berfungsi untuk mengubah nilai threshold menjadi 0. Jika melibatkan bias maka keluaran unit
penjumlah adalah net = b + ∑
Fungsi aktivasi threshold menjadi : fnet = 1 jika net
0 dan fnet = -1 jika net 0
Gambar 2.3 Jaringan dengan Bias Jong, 2009
2.3.3 Backpropagation Propagasi Balik
Backpropagation merupakan suatu teknik pembelajaran atau pelatihan jenis supervised learning yang paling banyak digunakan. Metode ini merupakan
salah satu metode yang sangat baik dalam menangani masalah pengenalan pola- pola kompleks. Di dalam jaringan ini, setiap unit yang berada di lapisan input
berhubungan dengan setiap unit yang ada di lapisan tersembunyi. Sedangkan setiap unit di lapisan tersembunyi berhubungan dengan setiap unit di lapisan
output. Arsitektur backpropagation termasuk dalam jaringan layar jamak. Dalam pola pelatihannya, jaringan ini akan diberi inputan yang akan
diteruskan ke dalam layar tersembunyi dan menuju hingga output. Ketika hasil keluaran ternyata tidak sesuai dengan harapan maka keluaran akan kembali
disebarkan mundur backward pada lapisan tersembunyi hingga menuju input. Tahap selanjutnya adalah dengan melakukan perubahan bobot. Iterasi ini terus
dilakukan hingga ditemukan penyelesaian yang optimal Jong, 2009.
Gambar 2.4 Arsitektur Jaringan Backpropagation Jong, 2009
Algoritma pelatihan jaringan backpropagation terdiri dari 3 tahapan utama yaitu :
1. Tahap Propagasi Maju
2. Tahap Propagasi Mundur
3. Tahap Perubahan Bobot
Secara terperinci algoritma dari pelatihan jaringan backpropagation adalah sebagai berikut :
0. Inisialisasi semua bobot dengan bilangan acak kecil
1. Jika kondisi penghentian belum terpenuhi, lakukan langkah 2-9
2. Untuk setiap pasang data pelatihan, lakukan langkah 3-8
3. Tiap unit masukan menerima sinyal dan meneruskannya ke unit
tersembunyi di atasnya 4.
Hitung semua keluaran di unit tersembunyi Z Znet j =
+ ∑
2.6 Zj = fZ_net j =
2.7 5.
Hitung semua keluaran jaringan di unit Y Ynet k =
+ ∑
2.8 Yk = fY_net k =
2.9 6.
Hitung faktor error lapisan output unit keluaran berdasarkan kesalahan di setiap unit keluaran Y
= -
1 - 2.10
merupakan unit kesalahan yang akan dipakai dalam perubahan bobot layar di bawahnya.
Hitung suku perubahan bobot Wkj yang akan dipakai nanti merubah bobot Wkj dengan laju percepatan
= . . Zj 2.11
7. Hitung faktor error lapisan tersembunyi unit tersembunyi
berdasarkan kesalahan di setiap unit tersembunyi Z = ∑
2.12 Faktor
unit tersembunyi : j = _net j . Zj 1 – Zj
2.13 Hitung suku perubahan bobot Vji yang akan dipakai nanti
merubah bobot Vji = . . Xi
2.14 8.
Hitung semua perubahan bobot Perubahan bobot garis yang menuju ke unit keluaran :
Wkj baru = Wkj lama + Perubahan bobot garis yang menuju ke unit tersembunyi :
Vji baru = Vji lama + 9.
Uji kondisi berhenti akhir iterasi
2.3.4 Normalisasi