28 Merujuk pada penelitian Hendri 2010 akan digunakan masing-masing tiga konstanta untuk
mencari mana nilai learning rate dan momentum yang terbaik yang akan digunakan adalah arsitektur jaringan Backpropagation ini. Adapun nilai Nilai learning rate yang diujicobakan pada penelitian ini
adalah 0.005, 0.3, 0.2, 0.1 sedangkan nilai momentum yaitu 0.1, 0.6 dan 0.9.
3.4.2 Penentuan Fungsi Aktivasi
Dalam backpropagation
, fungsi aktivasi yang dipakai harus memenuhi beberapa syarat yaitu : continue
, terdiferensial dengan mudah dan merupakan fungsi yang tidak turun. Alternatif lain adalah menggunakan fungsi linear hanya untuk layar output Siang 2009.
Berdasarkan tinjauan pustaka tersebut maka fungsi yang dipakai dalam pembentukan arsitektur jaringan dalam penelitian ini adalah fungsi sigmoid bipolar untuk semua fungsi masukan ke layar
berikutnya dan fungsi linear untuk layar keluaran.
3.4.3 Pemilihan Bobot Awal
Bobot awal akan mempengaruhi apakah jaringan mencapai titik minimum lokal atau global dan seberapa cepat konvergensinya. Bobot yang menghasilkan nilai turunan aktivasi yang kecil sedapat
mungkin dihindari karena akan menyebabkan perubahan bobot menjadi sangat kecil. Demikian pula nilai bobot awal tidak boleh terlalu besar karena nilai turunan fungsi aktivasi menjadi kecil juga. Oleh
karena itu dalam standar backpropagation, bobot diisi dengan bilangan acak kecil Siang 2009. Salah satu cara menentukan bobot dengan bilangan acak kecil adalah dengan menentukannya
secara manual untuk menghasilkan hasil yang baik, namun cara ini terkadang tidak praktis dan membutuhkan tambahan waktu untuk melakukannya. Namun pada penelitian ini penentuan bobot
jaringan ditentukan oleh MATLAB secara acak agar mempercepat proses pelatihan jaringannya.
3.4.4 Penentuan Jumlah Iterasi
Jumlah iterasi
sering juga disebut juga sebagai epoch dalam Backpropagation. Satu epoch
adalah satu siklus yang melibatkan seluruh pola data training training pattern. Dalam proses belajar jaringan backpropagation biasanya memerlukan banyak epoch. Pada penelitian ini ditentukan
banyaknya iterasi yang dilakukan pada proses belajar adalah 5000 epoch. Jumlah ini diperkirakan cukup dan merupakan referensi dari penelitian Seminar et al. 2009 dapat menghasilkan performansi
jaringan yang baik.
3.4.5 Penentuan Jumlah Layer, Hidden Layer, dan Neuron Input dan Output
Penentuan arsitektur
hidden layer terdiri atas dua bagian, yaitu penentuan jumlah layar dan
ukuran layar. Jumlah layar yang digunakan dalam hidden layer adalah satu layar. Hal ini dilakukan karena dua pertimbangan, yaitu karena jumlah data training dan waktu training. Selain itu
performansi dengan satu hidden layer juga baik untuk network dengan node yang tidak begitu banyak. Dalam penelitian ini, digunakan jumlah unit input terdiri dari delapan input data dengan dua unit
hidden layer dan satu unit output.
29
3.4.6 Penentuan Toleransi Galat
Dalam Backpropagation defaultnya perhitungan unjuk kerja dilakukan berdasarkan kuadrat rata-rata kesalahan atau Mean Square Error MSE. MSE digunakan untuk menampilkan batas nilai
agar iterasi dihentikan. Iterasi akan berhenti jika MSE lebih kecil daripada batas yang ditentukan atau jumlah epoch mencapai batas yang ditentukan. Pada penelitian ini, nilai yang diset adalah 0.0000005.
hal ini disesuaikan dengan pendapat Dhaneswara et al. 2004, semakin kecil MSE, JST semakin kecil kesalahannya dalam memprediksi kelas dari record yang baru. Maka pelatihan JST ditujukan
untuk memperkecil MSE dari satu siklus ke siklus berikutnya sampai selisih nilai MSE pada siklus ini dengan siklus sebelumnya lebih kecil atau sama dengan batas minimal yang diberikan.
Rincian arsitektur jaringan yang akan dirancang untuk melakukan pelatihan Backpropagation disajikan pada Tabel 2.
Tabel 2. Arsitektur JST yang akan dikembangkan
Karakteristik Spesifikasi
Neuron input layer 9 neuron
Jumlah Hidden layer 2 layer
Neuron output layer 1 neuron
Fungsi aktivasi Sigmoid bipolar dan linear
Toleransi galat 0.0000005
Epoch Iterasi 5000
Penentuan Bobot Bilangan acak kecil dari MATLAB
3.5 Data Percobaan dan Pelatihan