Arsitektur Jaringan Back Propagation

Pada umumnya sistem pengenalan suara menggunakan 39 feature ini untuk mengenali Jang, 2005.

2.5. Jaringan Syaraf Tiruan

Jaringan syaraf tiruan JST adalah sistem pemroses informasi yang memiliki karakteristik mirip dengan jaringan syaraf biologis Siang, 2005. Jaringan syaraf tiruan dibentuk sebagai generalisasi model matematika dari jaringan syaraf biologis, dengan asumsi bahwa : 1. Pemrosesan informasi terjadi pada banyak elemen sederhana neuron. 2. Sinyal dikirimkan diantara neuron-neuron melalui penghubung- penghubung. 3. Penghubung antar neuron memiliki bobot yang akan memperkuat atau memperlemah sinyal. 4. Untuk menentukan output, setiap neuron menggunakan fungsi aktivasi biasanya bukan fungsi linier yang dikenakan pada jumlahan input yang diterima. Besarnya output ini selanjutnya dibandingkan dengan suatu batas ambang. Jaringan Syaraf Tiruan ditentukan oleh 3 hal : 1. Pola hubungan antar neuron disebut arsitektur jaringan. 2. Metode untuk menentukan bobot penghubung disebut metode traininglearningalgoritma. 3. Fungsi aktivasi.

2.5.1. Arsitektur Jaringan

Beberapa arsitektur jaringan yang sering dipakai dalam jaringan syaraf tiruan antara lain : 1. Jaringan Lapis Tunggal Dalam jaringan ini, sekumpulan input neuron dihubungkan langsung dengan sekumpulan output-nya. Dalam beberapa model misal perceptron, hanya ada sebuah unit neuron output. Gambar 2.4 Ilustrasi Arsitektur Jaringan Lapis Tunggal Siang, 2005 Pada gambar 2.4 terdapat n unit input , , … , dan m buah unit output , , … , kemudian , , … , yang menyatakan bobot hubungan antara unit ke-i dalam input dengan unit ke-j dalam output. Bobot-bobot ini saling independen. Selama proses pelatihan, bobot-bobot tersebut akan dimodifikasi untuk meningkatkan keakuratan hasil. 2. Jaringan Lapis Majemuk Jaringan lapis majemuk merupakan perluasan dari jaringan lapis tunggal. Dalam jaringan ini, selain unit input dan output, ada unit-unit lain diantara unit input dan output sering disebut lapis tersembunyi. Dalam jaringan ini dimungkinkan ada beberapa lapis tersembunyi. Unit dalam satu lapis tidak saling berhubungan. Gambar 2.5 Ilustrasi Arsitektur Jaringan Lapis Majemuk Siang, 2005 Pada gambar 2.5 terdapat n buah unit input , , … , dan m buah unit output , , … , , sebuah lapis tersembunyi yang terdiri dari p buah unit , … , � . Jaringan ini dapat menyelesaikan masalah yang lebih kompleks.

2.5.2. Back Propagation

Jaringan Syaraf Tiruan Back Propagation membandingkan perhitungan keluaran dengan target keluaran dan menghitung nilai error untuk setiap unit jaringan. 1. Arsitektur Back Propagation Gambar 2.6 Ilustrasi Arsitektur JST Back Propagation Siang, 2005 Gambar 2.6 merupakan arsitektur jaringan syaraf tiruan back propagation dengan n buah input ditambah sebuah bias, sebuah lapis tersembunyi yang terdiri dari p unit ditambah sebuah bias, dan sebuah lapis unit keluaran. 2. Fungsi Aktivasi Dalam jaringan syaraf tiruan back propagation, fungsi aktivasi yang dipakai harus memenuhi beberapa syarat, yaitu : kontinu, terdeferensial dengan mudah dan merupakan fungsi yang tidak turun. Salah satu fungsi yang memenuhi ketiga syarat tersebut sehingga sering dipakai adalah fungsi sigmoid biner yang memiliki range 0,1. = + − dengan turunan ′ = − 2.10 Fungsi lain yang sering dipakai adalah sigmoid bipolar dengan range -1,1. = + − − dengan turunan ′ = + − 2.11 Fungsi sigmoid memiliki nilai maksimum = 1. Maka untuk pola yang targetnya 1, pola masukkan dan keluaran harus terlebih dahulu ditransformasi sehingga semua polanya memiliki range yang sama seperti fungsi sigmoid yang dipakai. Alternatif lain adalah menggunakan fungsi aktivasi sigmoid hanya pada lapis yang bukan lapis keluaran. Pada lapis keluaran, fungsi aktivasi yang dipakai adalah fungsi identitas : � = . 3. Proses Pelatihan Back Propagation Proses Pelatihan Jaringan Syaraf Tiruan Back Propagation terdiri dari 3 proses, yaitu propagasi maju, propagasi mundur, dan perubahan bobot. Ketiga proses tersebut dilakukan secara berulang sampai kondisi penghentian terpenuhi. Umumnya penghentian yang dipakai adalah iterasi dan error. 1. Propagasi Maju Selama propagasi maju, sinyal masukkan = dipropagasikan ke lapis tersembunyi menggunakan fungsi aktivasi yang ditentukan. Keluaran dari setiap unit lapis tersembunyi = tersebut selanjutnya dipropagasikan maju lagi ke lapis tersembunyi di atasnya. Demikian seterusnya hingga mendapatkan luaran jaringan = . Berikutnya, luaran jaringan = dibandingkan dengan target yang harus dicapai = . Selisih − adalah error yang terjadi. Jika nilai error lebih kecil dari yang telah ditentukan, maka iterasi dihentikan, jika tidak, maka bobot setiap garis dimodifikasi untuk mengurangi error yang terjadi. 2. Propagasi Mundur Berdasarkan error − , dihitung faktor = , , … , yang dipakai untuk mendistribusikan error di unit ke semua unit tersembunyi yang terhubung langsung dengan . juga dipakai untuk mengubah bobot garis yang berhubungan langsung dengan unit luaran. Dengan cara yang sama, dihitung faktor di setiap unit lapis tersembunyi sebagai dasar perubahan bobot semua garis yang berasal dari unit tersembunyi di bawahnya. Demikian seterusnya hingga semua faktor di unit tersembunyi yang berhubungan langsung dengan unit masukkan dihitung. 3. Perbaikan Bobot Setelah semua faktor dihitung, bobot semua garis dimodifikasi bersamaan. Perubahan bobot suatu garis didasarkan atas faktor neuron di lapis atasnya. Secara umum, algoritma pelatihan untuk jaringan back propagation adalah sebagai berikut : 1. Inisialisasi semua bobot dengan bilangan acak kecil. 2. Jika kondisi penghentian belum terpenuhi, lakukan langkah 3-10. 3. Untuk setiap pasang data pelatihan, lakukan langkah 4-9. 4. Tiap unit masukkan menerima sinyal dan meneruskannya ke unit tersembunyi di atasnya. 5. Hitung semua luaran di unit tersembunyi = , , … , � _ = + ∑ = 2.12 = _ = + − _ 2.13 6. Hitung semua luaran jaringan di unit = , , … , _ = + ∑ = 2.14 = _ = + − _ 2.15 7. Hitung faktor unit luaran berdasarkan error di setiap unit luaran = , , … , = − ′ = − − 2.16 Hitung suku perubahan bobot dengan laju percepatan α ∆ = ; = , , … , ; = , , … , 2.17 8. Hitung faktor unit tersembunyi berdasarkan error di setiap unit tersembunyi = , , … , � _ = ∑ = 2.18 Faktor unit tersembunyi : = _ ′ _ = _ − 2.19 Hitung suku perubahan bobot ∆ = ; = , , … , ; = , , … , 2.20 9. Hitung semua perubahan bobot Perubahan bobot garis yang menuju ke unit luaran : = + ∆ = , , … , ; = , , … , 2.21 Perubahan bobot garis yang menuju ke unit tersembunyi : = + ∆ = , , … , ; = , , … , 2.22 10. Bandingkan kondisi penghentian.

2.6. Mempercepat Pelatihan Backpropagation