Optimasi Arsitektur Backpropagation Jaringan Syaraf Tiruan dan Aplikasinya

21

2.6.5 Optimasi Arsitektur Backpropagation

Masalah utama yang dihadapi dalam backpropagation adalah lamanya iterasi yang harus dilakukan. Backpropagation tidak dapat memberikan kepastian tentang berapa epoch yang harus dilalui untuk mencapai kondisi yang diinginkan. Oleh karena itu banyak orang berusaha meneliti bagaimana parameter-parameter jaringan dibuat sehingga menghasilkan jumlah iterasi yang relatif lebih sedikit. Cara yang ditempuh adalah sebagai berikut : Pemilihan Bobot dan Bias Awal Dalam algoritma backpropagation diperlukan inisiasi pembobot awal. Bobot awal akan mempengaruhi apakah jaringan mencapai titik minimum lokal atau global, dan seberapa cepat konvergensinya. Nguyen dan Widrow 1990 dalam Siang 2009 mengusulkan cara membuat inisiasi bobot dan bias ke unit tersembunyi sehingga menghasilkan iterasi lebih cepat. Dimisalkan n adalah jumlah unit masukan, p adalah jumlah unit tersembunyi, dan β adalah faktor skala = 0.7 . Algoritma inisiasi Nguyen dan Widrow adalah sebagai berikut : Langkah 1 : Inisiasi semua bobot v ji lama dengan bilangan acak dalam interval [-0.5, 0.5]. Langkah 2 : Hitung ║v j ║ = 2 1 + 2 2 +. . . + 2 ...................................................... 37 Langkah 3 : Bobot yang dipakai sebagai inisiasi adalh v ij = � ............................................................................... 38 Langkah 4 : Bias yang dipakai sebagai inisiasi = v j0 = bilangan acak antara –β dan β Jumlah Unit Tersembunyi dan Jumlah Node Pada Unit Tersembunyi Hasil teoritis yang didapatkan menunjukkan bahwa jaringan dengan sebuah lapisan tersembunyi sudah cukup bagi backpropagation untuk mengenali sembarang pasangan masukan dan target dengan tingkat ketelitian yang ditentukan. Akan tetapi penambahan jumlah lapisan tersembunyi kadangkala membuat pelatihan lebih mudah. Jumlah minimal node lapisan tersembunyi dapat ditentukan dengan beberapa cara seperti yang dilakukan oleh Cheng-Lin, Y. et al. 2001 dalam Mastur et al. 2005, seperti pada Persamaan 39 . = n i +n o 2 ................................................................................................... 39 Dengan n h adalah jumlah neuron pada lapisan tersembunyi, n i adalah jumlah neron dalam lapisan input, dan n o adalah jumlah neuron dalam lapisan output. Resilient Backpropagation Standar backpropagation adalah menggunakan algoritma penurunan gradien gradient descent. Variasi terhadap model standar backpropagation dilakukan dengan mengganti algoritma penurunan gradient dengan metode optimasi yang lain, seperti Resilient backpropagation Siang 2009. Febrianty et al. 2007 menerangkan bahwa Resilient backpropagation merupakan algoritma pembelajaran pada JST yang dikembangkan untuk mengatasi kelemahan pada JST Propagasi Balik yang biasanya menggunakan fungsi aktivasi sigmoid. Salah satu karakteristik dari fungsi sigmoid adalah gradiennya akan mendekati nol apabila input yang diberikan sangat banyak. Gradien yang mendekati nol ini berimplikasi pada rendahnya perubahan bobot. Apabila bobot-bobot tidak cukup mengalami perubahan, maka algoritma akan sangat lambat untuk mendekati nilai optimumnya. 22 Algoritma RPROP berusaha untuk mengeliminasi besarnya efek turunan parsial dengan cara hanya menggunakan tanda turunannya saja. Tanda turunan ini akan menentukan arah perbaikan bobot –bobot. Besarnya perubahan setiap bobot akan ditentukan oleh suatu faktor yang diatur pada parameter delt_inc atau delt_dec Pada awal iterasi, besarnya perubahan bobot diinisialisasikan dengan parameter delta0. Besarnya perubahan tidak boleh melebihi batas maksimum yang terdapat pada parameter deltamax. Sama seperti pada algoritma propagasi balik gradien descent, Algoritma RPROP melaksanakan dua tahap pembelajaran yaitu tahap perambatan maju forward untuk mendapatkan error output dan tahap perambatan mundur backward untuk mengubah nilai bobot-bobot. Proses pembelajaran pada algoritma RPROP diawali dengan Definisi masalah, yaitu menentukan matriks masukan p dan matriks target t. Kemudian dilakukan proses inisialisasi yaitu menentukan bentuk jaringan, MaxEpoh, Target_Error, delta_dec, delta_inc, delta0, deltamax, dan menetapkan nilai-nilai bobot sinaptik vij dan wjk secara random. Pelatihan jaringan pada algoritma RPROP dilakukan selama Epoh jumlah siklus pelatihan kurang dari MaxEpoh dan Minimum Square Error Minimal error yang ditoleransi lebih besar dari Target Error. Proses perambatan maju forward pada algoritma RPROP sama dengan algoritma Propagasi Balik umumnya, sedangkan pada proses backwardnya berbeda.

2.6.6 Aplikasi Jaringan Syaraf Tiruan