Backpropagation Kesimpulan dan Saran

Setiap pengolahan elemen membuat perhitungan berdasarkan pada jumlah masukan input. Sebuah kelompok pengolahan elemen disebut layer atau lapisan dalam jaringan. Lapisan pertama adalah input dan yang terakhir adalah output. Lapisan di antara lapisan input dan output disebut dengan lapisan tersembunyi hidden layer. Jaringan sayaraf tiruan merupakan suatu bentuk arsitektur yang terdistribusikan paralel dengan sejumlah besar node dan hubungan antar-node tersebut. Tiap titik hubungan dari satu node ke node yang lain mempunyai harga yang diasosiasikan dengan bobot. Setiap node memiliki suatu nilai yang diasosiasikan sebagai nilai aktivasi node.

2.2. Backpropagation

Jaringan perambatan galat backpropagation merupakan salah satu algoritma yang sering digunakan dalam menyelesaikan masalah – masalah yang rumit. Hal ini dimungkinkan karena jaringan dengan algoritma ini dilatih dengan menggunakan metode belajar terbimbing. Pada jaringan diberikan sepasang pola yang terdiri atas pola masukan dan pola yang diinginkan. Ketiak suatu pola diberikan kepada jaringan, bobot-bobot diubah untuk memperkecil perbedaan pola keluaran dan pola yang diinginkan. Latihan ini dilakukan berulang-ulang sehingga semua pola yang dikeluarkan jaringan dapat memenuhi pola yang diinginkan Hermawan, 2006. Backpropagation atau biasa sering disebut jaringan feed forward, mampu berevolusi melalui perubahan bobot pada jaringan yang biasa digunakan untuk bidang prediksi, klasifikasi dan fungsi aproksimasi Tiwari, 2013. Algoritma pelatihan jaringan saraf perambatan galat mundur terdiri atas dua langkah, yaitu perambatan maju dan perambatan mundur. Langkah perambatan maju dan perambatan mundur ini dilakukan pada jaringan untuk setiap pola yang diberikan selama jaringan mengalami pelatihan. Sebuah jaringan backpropagation sederahana terdiri dari sebuah input dan output layer. Input pada input layer diteruskan melalui bobot untuk membawa input menuju lapisan output Muijrers, 2011. Jaringan perambatan galat mundur terdiri atas tiga lapisan atau lebih unit pengolah. Ketiga lapisan tersebut terhubung secara penuh. Perambatan galat maju dimulai dengan memberikan pola masukan ke lapisan Universitas Sumatera Utara masukan. Pola masukan ini merupakan nilai aktivasi unit-unit masuka. Dengan melakukan perambatan maju dihitung nilai aktivasi pada unit-unit di lapisan berikutnya. Pada setiap lapisan, tiap unit pengolah melakukan penjumlahan berbobot dan menerapkan fungsi sigmoid untuk menghitung keluarannya. Gambar 2.1 : Arsitektur Multilayer Neural Network Sumber : Hermawan, A Algoritma selengkapnya elatihan jaringan backpropagation adalah sebagai berikut Hermawan, 2006 : Langkah 0 :Inisialisasi bobot ambil bobot awal dengan nilai random yang cukup kecil. Langkah 1 :Bila syarat berhenti adalah salah, kerjakan langkah 2 sampai 9 Langkah 2 :Untuk setiap pasangan pelatihan, kerjakan langkah 3-8. Feedforward: Langkah 3 : Tiap-tiap unit input X i , i=1,2,3,...,n menerima sinyal x i dan meneruskan sinyal ke semua unit pada lapisan hidden lapisan tersembunyi. Langkah 4 : Tiap-tiap unit lapisan tersembunyi Zj, j=1,2,3,...,p menjumlahkan … … … … … … y 1 a 1 a k a i x 1 x n y m b 1 b j w 11 w 1k b l w 1i w n1 w nk w ni v 11 v 1l v 1j v k1 v kl v kj v i1 v il v ij u 11 u 1m u j1 u j1 Hidden Layer Output Layer Input Layer u l1 u lm Universitas Sumatera Utara sinyal-sinyal input terbobot: z_in j = v 0j +   n i ij i v x 1 2.1 v=Bobot awal input ke hidden. Gunakan fungsi aktivasi untuk menghitung sinyal outputnya: z j = fz_in j 2.2 dan mengirimkan sinyal tersebut ke semua unit di lapisan atasnya unit unit output. Langkah 5 : Tiap-tiap output Y k , k=1,2,3,...,m menjumlahkan sinyal-sinyal input terbobot. y_in k = w 0k +   p j jk j w z 1 2.3 gunakan fungsi aktivasi untuk menghitung sinyal outputnya: y k = fy_in k 2.4 dan kirimkan sinyal tersebut ke semua unit di lapisan hidden lapisan tersembunyi. Catatan: Langkah b dilakukan sebanyak jumlah lapisan tersembunyi. Backpropagation Langkah 6 : Tiap-tiap unit output Y k , k=1,2,3,...,m menerima target pola yang berhubungan dengan pola input pembelajaran, hitung informasi errornya  k = t k -y k f’y_in k 2.5 Kemudian hitung koreksi bobot yang nantinya akan digunakan untuk memperbaiki nilai w jk : Universitas Sumatera Utara w jk =  k z j 2.6 Hitung juga koreksi bias w 0k =  k 2.7 Langkah 7 : Tiap-tiap unit lapisan tersembunyi Zj, j=1,2,3,...,p menjumlahkan delta inputnya dari unit-unit yang berada dilapisan hidden. _in j =   m k jk k w 1  2.8 Kalikan nilai ini dengan turunan dari fungsi aktivasi untuk menghitung informasi error:  j = _in j f’z_in j 2.9 kemudian hitung koreksi bobot: v ij =  j x i 2.10 Langkah 8 :Tiap-tiap unit ouput Y k , k=1,2,3,...,m memperbaiki bias dan bobotnya j=1,2,3,...,p: w jk baru = w jk lama + w jk 2.11 Tiap-tiap unit lapisan tersembunyi Zj, j=1,2,3,...,p memperbaiki nilai bias dan bobotnya i=1,2,3,...,n. : v ij baru = v ij lama + v ij 2.12 Langkah 9 : Uji syarat berhenti.

2.3. Online Backpropagation