27
3.3 Identifikasi Faktor Kritis
Penentuan faktor kritis dilakukan dengan melakukan dua tahapan. Tahapan pertama adalah dengan melakukan identifikasi faktor krisis dilakukan dengan teknik perbandingan eksponensial.
Tahap kegiatan yang dilakukan adalah sebagai berikut: 1.
Menyusun semua alternatif faktor yang dipertimbangkan melalui studi literatur dan wawancara pakar.
2. Tentukan kriteria-kriteria penting dalam pemilihan faktor tersebut.
3. Lakukan penilaian terhadap semua alternatif faktor pada setiap kriteria.
4. Susun matrik penilaian dan identifikasi arah dan rentang penilaian.
5. Lakukan penghitungan skor atau nilai total setiap alternatif faktor.
6. Tentukan urutan prioritas faktor didasarkan pada skor atau nilai total masing-masing
alternatif. Sedangkan tahapan selanjutnya adalah analisis dan prioritasi faktor-faktor kritis yang
mempengaruhi krisis penyediaan pupuk bersubsidi di Banyumas dilakukan dengan menggunakan metode Analitical Hierarchy Process AHP. Komponen-komponen pada setiap hierarki di elaborasi
dari analisis dan sintesis pada tahap sebelumnya.
3.4 Arsitektur Jaringan Propagasi Balik
Dalam membentuk arsitektur jaringan ada beberapa hal penting yang harus diperhatikan, antara lain learning rate dan momentum. Learning rate menentukan seberapa cepat jaringan syaraf tersebut
mempelajari pola dari data training. Momentum meningkatkan kecepatan dalam menemukan nilai yang diinginkan. Pemakaian parameter momentum ini bertujuan agar proses penyesuaian bobot tetap
cenderung dalam arah yang sama. Nilai ini harus dipilih dengan benar, jika terlalu kecil maka proses pembelajaran akan lama dan jika terlalu besar maka akan terjadi penyimpangan. Sedangkan
momentum menunjukkan bahwa bobot pada iterasi sebelumnya mempengaruhi bobot sekarang.
Selain learning rate dan momentum ada beberapa hal yang bisa dimanipulasi untuk mengoptimalkan pelatihan Backpropagation. Hal-hal tersebut antara lain adalah fungsi aktivasi,
pemilihan bobot awal, penentuan jumlah iterasi, penentuan jumlah layer, hidden layer, neuron input, output
dan toleransi error berdasarkan MSE Renaldy 2007.
3.4.1 Penentuan Learning rate dan Momentum
Tujuan penentuan
learning rate dan momentum ini adalah untuk menentukan perubahan bobot
yang terbaik agar target proses pelatihan dengan error yang terkecil dapat tercapai sesuai target. Dalam standar Backpropagation, learning rate berupa suatu konstanta yang nilainya tetap selama
proses iterasi. Akibatnya, unjuk kerja algoritma sangat dipengaruhi oleh besarnya learning rate yang dipakai. Selain learning rate, momentum juga mempengaruhi perubahan bobot jaringan selama masa
pelatihan. Penambahan momentum ini dimaksudkan untuk menghindari perubahan bobot yang mencolok akibat adanya data yang sangat berbeda dengan data yang lain Siang 2009.
Dalam penelitian ini akan digunakan beberapa nilai learning rate dan momentum untuk mendapatkan nilai error yang paling maksimal. Penentuan nilai parameter learning rate dan
momentum pada penelitian ini ditentukan dengan trial dan error. Adapun nilai momentum dan
learning rate adalah konstanta nilai diantara 0 dan 1.
28 Merujuk pada penelitian Hendri 2010 akan digunakan masing-masing tiga konstanta untuk
mencari mana nilai learning rate dan momentum yang terbaik yang akan digunakan adalah arsitektur jaringan Backpropagation ini. Adapun nilai Nilai learning rate yang diujicobakan pada penelitian ini
adalah 0.005, 0.3, 0.2, 0.1 sedangkan nilai momentum yaitu 0.1, 0.6 dan 0.9.
3.4.2 Penentuan Fungsi Aktivasi
Dalam backpropagation
, fungsi aktivasi yang dipakai harus memenuhi beberapa syarat yaitu : continue
, terdiferensial dengan mudah dan merupakan fungsi yang tidak turun. Alternatif lain adalah menggunakan fungsi linear hanya untuk layar output Siang 2009.
Berdasarkan tinjauan pustaka tersebut maka fungsi yang dipakai dalam pembentukan arsitektur jaringan dalam penelitian ini adalah fungsi sigmoid bipolar untuk semua fungsi masukan ke layar
berikutnya dan fungsi linear untuk layar keluaran.
3.4.3 Pemilihan Bobot Awal
Bobot awal akan mempengaruhi apakah jaringan mencapai titik minimum lokal atau global dan seberapa cepat konvergensinya. Bobot yang menghasilkan nilai turunan aktivasi yang kecil sedapat
mungkin dihindari karena akan menyebabkan perubahan bobot menjadi sangat kecil. Demikian pula nilai bobot awal tidak boleh terlalu besar karena nilai turunan fungsi aktivasi menjadi kecil juga. Oleh
karena itu dalam standar backpropagation, bobot diisi dengan bilangan acak kecil Siang 2009. Salah satu cara menentukan bobot dengan bilangan acak kecil adalah dengan menentukannya
secara manual untuk menghasilkan hasil yang baik, namun cara ini terkadang tidak praktis dan membutuhkan tambahan waktu untuk melakukannya. Namun pada penelitian ini penentuan bobot
jaringan ditentukan oleh MATLAB secara acak agar mempercepat proses pelatihan jaringannya.
3.4.4 Penentuan Jumlah Iterasi
Jumlah iterasi
sering juga disebut juga sebagai epoch dalam Backpropagation. Satu epoch
adalah satu siklus yang melibatkan seluruh pola data training training pattern. Dalam proses belajar jaringan backpropagation biasanya memerlukan banyak epoch. Pada penelitian ini ditentukan
banyaknya iterasi yang dilakukan pada proses belajar adalah 5000 epoch. Jumlah ini diperkirakan cukup dan merupakan referensi dari penelitian Seminar et al. 2009 dapat menghasilkan performansi
jaringan yang baik.
3.4.5 Penentuan Jumlah Layer, Hidden Layer, dan Neuron Input dan Output
Penentuan arsitektur
hidden layer terdiri atas dua bagian, yaitu penentuan jumlah layar dan
ukuran layar. Jumlah layar yang digunakan dalam hidden layer adalah satu layar. Hal ini dilakukan karena dua pertimbangan, yaitu karena jumlah data training dan waktu training. Selain itu
performansi dengan satu hidden layer juga baik untuk network dengan node yang tidak begitu banyak. Dalam penelitian ini, digunakan jumlah unit input terdiri dari delapan input data dengan dua unit
hidden layer dan satu unit output.
29
3.4.6 Penentuan Toleransi Galat
Dalam Backpropagation defaultnya perhitungan unjuk kerja dilakukan berdasarkan kuadrat rata-rata kesalahan atau Mean Square Error MSE. MSE digunakan untuk menampilkan batas nilai
agar iterasi dihentikan. Iterasi akan berhenti jika MSE lebih kecil daripada batas yang ditentukan atau jumlah epoch mencapai batas yang ditentukan. Pada penelitian ini, nilai yang diset adalah 0.0000005.
hal ini disesuaikan dengan pendapat Dhaneswara et al. 2004, semakin kecil MSE, JST semakin kecil kesalahannya dalam memprediksi kelas dari record yang baru. Maka pelatihan JST ditujukan
untuk memperkecil MSE dari satu siklus ke siklus berikutnya sampai selisih nilai MSE pada siklus ini dengan siklus sebelumnya lebih kecil atau sama dengan batas minimal yang diberikan.
Rincian arsitektur jaringan yang akan dirancang untuk melakukan pelatihan Backpropagation disajikan pada Tabel 2.
Tabel 2. Arsitektur JST yang akan dikembangkan
Karakteristik Spesifikasi
Neuron input layer 9 neuron
Jumlah Hidden layer 2 layer
Neuron output layer 1 neuron
Fungsi aktivasi Sigmoid bipolar dan linear
Toleransi galat 0.0000005
Epoch Iterasi 5000
Penentuan Bobot Bilangan acak kecil dari MATLAB
3.5 Data Percobaan dan Pelatihan
Oleh karena jaringan syaraf tiruan bekerja berdasarkan pola waktu masa lalu, maka pada penelitian ini digunakan sejumlah data deret waktu yaitu data-data faktor penyebab krisis pada
tahapan analisis sebelumnya. Adapun contoh data yang kemungkinan merupakan faktor penyebab kelangkaan pupuk adalah data kebutuhan pupuk Urea, data penggunaan dosis pupuk urea, data loss
pupuk selama distribusi, data perbedaan harga antara pupuk subsidi dan non-subsidi, data besarnya subsidi yang diberikan oleh pemerintah, data perubahan harga gabah dan bahan baku dan data lain
yang berhubungan dengan penyebab kelangkaan pupuk dari 27 kecamatan yang ada di Kabupaten Banyumas.
Data input ini merupakan data deret waktu yang diambil dari Januari 2006 hingga Desember 2008. Atribut-atribut tersebut dipilih karena keterkaitan antar atribut diperoleh dengan menggunakan
metode kausalitas antar atribut data. Data yang diperoleh akan dibagi menjadi dua bagian, yaitu data yang digunakan sebagai data
pelatihan dan sisanya data yang digunakan sebagai data penelitian atau simulasi. Pembagian data ini dilakukan dengan Rasio 80: 20. Nilai ini memiliki arti 80 data digunakan sebagai data pelatihan
jaringan dan 20 data digunakan sebagai data penelitian atau simulasi Salya 2006.
30
3.6 Waktu dan Tempat Penelitian