Penentuan Learning rate dan Momentum

28 Merujuk pada penelitian Hendri 2010 akan digunakan masing-masing tiga konstanta untuk mencari mana nilai learning rate dan momentum yang terbaik yang akan digunakan adalah arsitektur jaringan Backpropagation ini. Adapun nilai Nilai learning rate yang diujicobakan pada penelitian ini adalah 0.005, 0.3, 0.2, 0.1 sedangkan nilai momentum yaitu 0.1, 0.6 dan 0.9.

3.4.2 Penentuan Fungsi Aktivasi

Dalam backpropagation , fungsi aktivasi yang dipakai harus memenuhi beberapa syarat yaitu : continue , terdiferensial dengan mudah dan merupakan fungsi yang tidak turun. Alternatif lain adalah menggunakan fungsi linear hanya untuk layar output Siang 2009. Berdasarkan tinjauan pustaka tersebut maka fungsi yang dipakai dalam pembentukan arsitektur jaringan dalam penelitian ini adalah fungsi sigmoid bipolar untuk semua fungsi masukan ke layar berikutnya dan fungsi linear untuk layar keluaran.

3.4.3 Pemilihan Bobot Awal

Bobot awal akan mempengaruhi apakah jaringan mencapai titik minimum lokal atau global dan seberapa cepat konvergensinya. Bobot yang menghasilkan nilai turunan aktivasi yang kecil sedapat mungkin dihindari karena akan menyebabkan perubahan bobot menjadi sangat kecil. Demikian pula nilai bobot awal tidak boleh terlalu besar karena nilai turunan fungsi aktivasi menjadi kecil juga. Oleh karena itu dalam standar backpropagation, bobot diisi dengan bilangan acak kecil Siang 2009. Salah satu cara menentukan bobot dengan bilangan acak kecil adalah dengan menentukannya secara manual untuk menghasilkan hasil yang baik, namun cara ini terkadang tidak praktis dan membutuhkan tambahan waktu untuk melakukannya. Namun pada penelitian ini penentuan bobot jaringan ditentukan oleh MATLAB secara acak agar mempercepat proses pelatihan jaringannya.

3.4.4 Penentuan Jumlah Iterasi

Jumlah iterasi sering juga disebut juga sebagai epoch dalam Backpropagation. Satu epoch adalah satu siklus yang melibatkan seluruh pola data training training pattern. Dalam proses belajar jaringan backpropagation biasanya memerlukan banyak epoch. Pada penelitian ini ditentukan banyaknya iterasi yang dilakukan pada proses belajar adalah 5000 epoch. Jumlah ini diperkirakan cukup dan merupakan referensi dari penelitian Seminar et al. 2009 dapat menghasilkan performansi jaringan yang baik.

3.4.5 Penentuan Jumlah Layer, Hidden Layer, dan Neuron Input dan Output

Penentuan arsitektur hidden layer terdiri atas dua bagian, yaitu penentuan jumlah layar dan ukuran layar. Jumlah layar yang digunakan dalam hidden layer adalah satu layar. Hal ini dilakukan karena dua pertimbangan, yaitu karena jumlah data training dan waktu training. Selain itu performansi dengan satu hidden layer juga baik untuk network dengan node yang tidak begitu banyak. Dalam penelitian ini, digunakan jumlah unit input terdiri dari delapan input data dengan dua unit hidden layer dan satu unit output. 29

3.4.6 Penentuan Toleransi Galat

Dalam Backpropagation defaultnya perhitungan unjuk kerja dilakukan berdasarkan kuadrat rata-rata kesalahan atau Mean Square Error MSE. MSE digunakan untuk menampilkan batas nilai agar iterasi dihentikan. Iterasi akan berhenti jika MSE lebih kecil daripada batas yang ditentukan atau jumlah epoch mencapai batas yang ditentukan. Pada penelitian ini, nilai yang diset adalah 0.0000005. hal ini disesuaikan dengan pendapat Dhaneswara et al. 2004, semakin kecil MSE, JST semakin kecil kesalahannya dalam memprediksi kelas dari record yang baru. Maka pelatihan JST ditujukan untuk memperkecil MSE dari satu siklus ke siklus berikutnya sampai selisih nilai MSE pada siklus ini dengan siklus sebelumnya lebih kecil atau sama dengan batas minimal yang diberikan. Rincian arsitektur jaringan yang akan dirancang untuk melakukan pelatihan Backpropagation disajikan pada Tabel 2. Tabel 2. Arsitektur JST yang akan dikembangkan Karakteristik Spesifikasi Neuron input layer 9 neuron Jumlah Hidden layer 2 layer Neuron output layer 1 neuron Fungsi aktivasi Sigmoid bipolar dan linear Toleransi galat 0.0000005 Epoch Iterasi 5000 Penentuan Bobot Bilangan acak kecil dari MATLAB

3.5 Data Percobaan dan Pelatihan

Oleh karena jaringan syaraf tiruan bekerja berdasarkan pola waktu masa lalu, maka pada penelitian ini digunakan sejumlah data deret waktu yaitu data-data faktor penyebab krisis pada tahapan analisis sebelumnya. Adapun contoh data yang kemungkinan merupakan faktor penyebab kelangkaan pupuk adalah data kebutuhan pupuk Urea, data penggunaan dosis pupuk urea, data loss pupuk selama distribusi, data perbedaan harga antara pupuk subsidi dan non-subsidi, data besarnya subsidi yang diberikan oleh pemerintah, data perubahan harga gabah dan bahan baku dan data lain yang berhubungan dengan penyebab kelangkaan pupuk dari 27 kecamatan yang ada di Kabupaten Banyumas. Data input ini merupakan data deret waktu yang diambil dari Januari 2006 hingga Desember 2008. Atribut-atribut tersebut dipilih karena keterkaitan antar atribut diperoleh dengan menggunakan metode kausalitas antar atribut data. Data yang diperoleh akan dibagi menjadi dua bagian, yaitu data yang digunakan sebagai data pelatihan dan sisanya data yang digunakan sebagai data penelitian atau simulasi. Pembagian data ini dilakukan dengan Rasio 80: 20. Nilai ini memiliki arti 80 data digunakan sebagai data pelatihan jaringan dan 20 data digunakan sebagai data penelitian atau simulasi Salya 2006.