Pada penelitian ini dirancang JST dengan satu hidden layer dengan menggunakan algoritma backpropagation. Backpropagation merupakan salah
satu algoritma pembelajaran terawasi supervised learning Patuelli, 2006 dan Seminar, 2010. JST dirancang dengan arsitektur JST tiga lapis Kahfourushan,
2010. JST tersebut diperoleh dengan cara uji coba berbagai parameter JST. Jumlah neuron yang dicoba adalah jumlah neuron dalam hidden layer, sedangkan
parameter lain yang diuji coba adalah fungsi aktivasi, algoritma pelatihan dan momentum. Pada penelitian ini jumlah neuron yang diujicoba pada lapisan
tersembunyi hidden layer jumlahnya berbeda-beda yaitu sebanyak empat, delapan dan dua belas buah. Parameter output yang dihasilkan adalah MSE
mean square error, jumlah iterasi epoch dan koefisien korelasi R. Menurut Munakata 2008, algoritma dasar backpropagation memiliki tiga
fase di bawah : 1. Fase feedforward pola input pembelajaranpelatihan
2. Fase kalkulasi dan backpropagation error 3. Fase penyesuaian bobot untuk memperbaiki output mendekati target.
Algoritma backpropagation menggunakan error output untuk mengubah nilai bobot-bobotnya dalam arah mundur backward. Untuk mendapatkan error ini,
tahap forward propagasi harus dikerjakan terlebih dahulu. Pada saat forward propagation, neuron-neuron diaktifkan dengan menggunakan fungsi aktivasi.
Pada jaringan feedforward, pelatihan dilakukan dalam rangka melakukan pengaturan bobot, sehingga pada akhir pelatihan diperoleh bobot-bobot terbaik.
Selama proses pelatihan, bobot-bobot diatur secara iteratif untuk meminimumkan fungsi kinerja jaringan. Fungsi kinerja yang sering digunakan untuk
backpropagation adalah mean square error MSE. Fungsi ini mengambil rata- rata kuadrat error yang terjadi antara output jaringan dan target. Sebagian besar
algoritma pelatihan untuk jaringan feedforward menggunakan gradien dari fungsi kinerja untuk menentukan bagaimana mengatur bobot dalam rangka
meminimumkan kinerja. Gradien ini ditentukan dengan menggunakan suatu teknik yang disebut dengan nama backpropagation. Pada dasarnya algoritma
backpropagation menggerakkan bobot dengan arah gradien negatif, algoritma ini
memiliki prinsip dasar memperbaiki jaringan dengan arah yang membuat fungsi kinerja menjadi turun dengan cepat Seminar, 2010.
Alternatif spesifikasi yang dicoba pada penelitian untuk memperoleh rancangan arsitektur JST dengan kinerja yang terbaik disajikan pada Tabel 15.
Tabel 15 merupakan contoh pemilihan arsitektur JST Prakiraan Harga Beras Tipe IR64III. Untuk memperoleh rancangan arsitektur JST backpropagation dengan
kinerja sistem yang terbaik diperlukan tahapan sebagai berikut Silvia, 2007:
a. Pemilihan Fungsi Aktivasi
Beberapa alternatif fungsi aktivasi JST yang dicobakan dalam penelitian ini dapat dilihat dari Gambar 33 sampai dengan Gambar 35.
- Fungsi sigmoid bipolar tansig
Fungsi ini memiliki output dengan interval nilai antara -1 sampai 1. Notasinya tansign = 21+exp-2n-1
Gambar 33. Fungsi Aktivasi Sigmoid Bipolar -
Fungsi sigmoid biner logsig Fungsi ini memiliki output dengan nilai interval antara 0 sampai 1.
Notasinya logsign = 11+exp-n.
Gambar 34. Fungsi Aktivasi Sigmoid Biner -
Fungsi identitas purelin Fungsi ini memiliki nilai output yang sama dengan nilai inputnya.
Notasinya purelinn = n.
Gambar 35. Fungsi Aktivasi Identitas Purelin
b. Pemilihan Algoritma Pelatihan
Proses pelatihan jaringan backpropagation standar dengan metode penurunan gradien traingd seringkali lambat. Beberapa alternatif yang
dicoba untuk mempercepat proses belajar Jaringan Syaraf Tiruan JST pada penelitian ini menggunakan Silvia, 2007:
- Metode penurunan gradien dengan penambahan momentum traingdm
Metode penurunan gradien sangat lambat dalam kecepatan proses iterasi. Dengan penambahan momentum, perubahan bobot tidak hanya
didasarkan atas error yang terjadi pada iterasi epoch saat itu, tetapi juga memperhitungkan perubahan bobot pada epoch sebelumnya. Faktor
momentum besarnya efek perubahan bobot terdahulu dapat diatur antara 0 sampai 1. Faktor momentum 0 berarti perubahan bobot hanya
dilakukan berdasarkan error saat ini penurunan gradien murni. -
Metode penurunan gradien dengan momentum dan learning rate traingdx
Traingdx merupakan fungsi pelatihan jaringan yang memperbaharui bobot dan nilai bias sesuai dengan penurunan gradien momentum dan
learning rate adaptif. Learning rate merupakan parameter pelatihan yang mengendalikan perubahan nilai bobot dan bias selama pelatihan.
- Metode Levenberg-Marquadt trainlm
Trainlm merupakan fungsi pelatihan jaringan yang memperbaharui bobot dan nilai bias sesuai dengan optimasi Levenberg-Marquadt.
- Metode Resilient Backpropagation trainrp
Jaringan backpropagation umumnya menggunakan fungsi aktivasi sigmoid. Fungsi sigmoid menerima masukan dari daerah hasil range
tak berhingga menjadi keluaran pada daerah hasil 0,1. Semakin jauh titik dari x = 0, semakin kecil gradiennya. Pada titik yang cukup jauh
dari x = 0, gradiennya mendekati 0. Hal ini menimbulkan masalah pada waktu menggunakan metode penurunan tercepat yang iterasinya
didasarkan pada gradien. Gradien yang kecil menyebabkan perubahan bobot juga kecil, meskipun masih jauh dari titik optimal. Masalah
tersebut diatasi dalam resilient backpropagation dengan cara membagi arah perubahan bobot menjadi dua bagian yang berbeda Siang, 2004.
Pemilihan Nilai Momentum
Penambahan momentum dapat menghindari perubahan bobot yang mencolok akibat adanya data yang sangat berbeda dengan yang lain. Momentum adalah
perubahan bobot yang didasarkan atas arah gradien pola terakhir dan pola sebelumnya yang dimasukkan. Nilai momentum yang baik ditentukan dengan cara
trial and error Silvia, 2007. Beberapa alternatif nilai momentum yang dicobakan pada penelitian ini adalah 0.005, 0.05, 0.1, 0.5 dan 0.9. Nilai-nilai ini
diambil dengan syarat berada di antara 0 dan 1.
Pemilihan Target Goal Toleransi Error.
Goal error yang dicoba adalah 0.01, 0.001 dan 0.0001. Nilai tersebut merupakan batas toleransi nilai error yang ditentukan agar iterasi dihentikan pada
saat nilai error lebih kecil dari batas yang ditentukan atau jumlah epoch telah mencapai batas yang ditentukan.
Pemilihan Arsitektur Hidden Layer
Penentuan arsitektur hidden layer terdiri dari dua bagian, yaitu penentuan jumlah layer dan ukuran layer jumlah neuron dalam hidden layer. Menurut
Seminar et al. 2010, secara umum satu lapisan tersembunyi sudah cukup untuk sembarang pemetaan kontinyu dari pola input ke pola output pada sembarang
tingkat akurasi. Untuk itu pada penelitian ini digunakan satu hidden layer. Trial dan error dilakukan pada beberapa alternatif jumlah neuron dalam
hidden layer kemudian dipilih alternatif yang memiliki kinerja yang terbaik. Pada spesifikasi pertama dicoba arsitektur dengan beberapa alternatif jumlah neuron,
yaitu empat neuron, delapan neuron dan dua belas neuron. Dari beberapa alternatif tersebut dipilih mana yang terbaik. Arsitektur hidden layer dengan
kinerja terbaik dipilih untuk rancangan, pelatihan dan pengujian JST. Tabel 16 adalah contoh pemilihan fungsi aktivasi dan algoritma pelatihan untuk JST
prakiraan harga beras jenis IR64 III.