Fungsi Aktivasi, Bias, dan Threshold Backpropagation Propagasi Balik

Gambar di atas adalah jaringan dengan n buat unit inputX, sebuah layar tersembunyiZ yang terdiri dari p buah unit, dan m buah unit outputY. Jaringan layar jamak dapat menyelesaikan masalah yang lebih kompleks dibandingkan dengan layar tunggal, meskipun kadangkala proses pelatihan lebih kompleks dan lama. c. Jaringan Reccurent Model jaringan recurrent mirip dengan jaringan layar tunggal ataupun ganda. Hanya saja, ada neuron output yang memberikan sinyal pada unit input atau sering disebut dengan feedback loop.

2.3.2 Fungsi Aktivasi, Bias, dan Threshold

Dalam jaringan syaraf tiruan, fungsi aktivasi dipakai untuk menentukan keluaran suatu neuron. Argumen fungsi aktivasi adalah net masukan kombinasi linear masukan dan bobotnya. Beberapa fungsi aktivasi yang sering dipakai adalah sebagai berikut : a. Fungsi Threshold Batas Ambang fx = 1 jika x a dan fx = 0 jika x a 2.1 Untuk beberapa kasus, fungsi threshold yang dibuat tidak berharga 0 atau 1, tapi berharga -1 atau 1 sering disebut threshold bipolar. Sehingga : fx = 1 jika x a dan fx = -1 jika x a 2.2 b. Fungsi Sigmoid fx = 2.3 Fungsi sigmoid sering dipakai karena nilai fungsinya yang terletak antara 0 dan 1 dan dapat diturunkan dengan mudah. f`x = fx 1-fx 2.4 c. Fungsi Identitas fx = x 2.5 Fungsi identitas sering dipakai apabila kita menginginkan keluaran jaringan berupa sembarang bilangan riil bukan hanya pada range [0,1] atau [-1,1]. Kadang-kadang dalam jaringan ditambahkan pula sebuah unit masukan yang nilainya selalu = 1. Unit yang sedemikian itu disebut bias. Bias dapat dipandang sebagai sebuah unit input yang nilainya = 1. Bias berfungsi untuk mengubah nilai threshold menjadi 0. Jika melibatkan bias maka keluaran unit penjumlah adalah net = b + ∑ Fungsi aktivasi threshold menjadi : fnet = 1 jika net 0 dan fnet = -1 jika net 0 Gambar 2.3 Jaringan dengan Bias Jong, 2009

2.3.3 Backpropagation Propagasi Balik

Backpropagation merupakan suatu teknik pembelajaran atau pelatihan jenis supervised learning yang paling banyak digunakan. Metode ini merupakan salah satu metode yang sangat baik dalam menangani masalah pengenalan pola- pola kompleks. Di dalam jaringan ini, setiap unit yang berada di lapisan input berhubungan dengan setiap unit yang ada di lapisan tersembunyi. Sedangkan setiap unit di lapisan tersembunyi berhubungan dengan setiap unit di lapisan output. Arsitektur backpropagation termasuk dalam jaringan layar jamak. Dalam pola pelatihannya, jaringan ini akan diberi inputan yang akan diteruskan ke dalam layar tersembunyi dan menuju hingga output. Ketika hasil keluaran ternyata tidak sesuai dengan harapan maka keluaran akan kembali disebarkan mundur backward pada lapisan tersembunyi hingga menuju input. Tahap selanjutnya adalah dengan melakukan perubahan bobot. Iterasi ini terus dilakukan hingga ditemukan penyelesaian yang optimal Jong, 2009. Gambar 2.4 Arsitektur Jaringan Backpropagation Jong, 2009 Algoritma pelatihan jaringan backpropagation terdiri dari 3 tahapan utama yaitu : 1. Tahap Propagasi Maju 2. Tahap Propagasi Mundur 3. Tahap Perubahan Bobot Secara terperinci algoritma dari pelatihan jaringan backpropagation adalah sebagai berikut : 0. Inisialisasi semua bobot dengan bilangan acak kecil 1. Jika kondisi penghentian belum terpenuhi, lakukan langkah 2-9 2. Untuk setiap pasang data pelatihan, lakukan langkah 3-8 3. Tiap unit masukan menerima sinyal dan meneruskannya ke unit tersembunyi di atasnya 4. Hitung semua keluaran di unit tersembunyi Z Znet j = + ∑ 2.6 Zj = fZ_net j = 2.7 5. Hitung semua keluaran jaringan di unit Y Ynet k = + ∑ 2.8 Yk = fY_net k = 2.9 6. Hitung faktor error lapisan output unit keluaran berdasarkan kesalahan di setiap unit keluaran Y = - 1 - 2.10 merupakan unit kesalahan yang akan dipakai dalam perubahan bobot layar di bawahnya. Hitung suku perubahan bobot Wkj yang akan dipakai nanti merubah bobot Wkj dengan laju percepatan = . . Zj 2.11 7. Hitung faktor error lapisan tersembunyi unit tersembunyi berdasarkan kesalahan di setiap unit tersembunyi Z = ∑ 2.12 Faktor unit tersembunyi : j = _net j . Zj 1 – Zj 2.13 Hitung suku perubahan bobot Vji yang akan dipakai nanti merubah bobot Vji = . . Xi 2.14 8. Hitung semua perubahan bobot Perubahan bobot garis yang menuju ke unit keluaran : Wkj baru = Wkj lama + Perubahan bobot garis yang menuju ke unit tersembunyi : Vji baru = Vji lama + 9. Uji kondisi berhenti akhir iterasi

2.3.4 Normalisasi