Konfigurasi Model IDSS pada SCM beras

Pada penelitian ini dirancang JST dengan satu hidden layer dengan menggunakan algoritma backpropagation. Backpropagation merupakan salah satu algoritma pembelajaran terawasi supervised learning Patuelli, 2006 dan Seminar, 2010. JST dirancang dengan arsitektur JST tiga lapis Kahfourushan, 2010. JST tersebut diperoleh dengan cara uji coba berbagai parameter JST. Jumlah neuron yang dicoba adalah jumlah neuron dalam hidden layer, sedangkan parameter lain yang diuji coba adalah fungsi aktivasi, algoritma pelatihan dan momentum. Pada penelitian ini jumlah neuron yang diujicoba pada lapisan tersembunyi hidden layer jumlahnya berbeda-beda yaitu sebanyak empat, delapan dan dua belas buah. Parameter output yang dihasilkan adalah MSE mean square error, jumlah iterasi epoch dan koefisien korelasi R. Menurut Munakata 2008, algoritma dasar backpropagation memiliki tiga fase di bawah : 1. Fase feedforward pola input pembelajaranpelatihan 2. Fase kalkulasi dan backpropagation error 3. Fase penyesuaian bobot untuk memperbaiki output mendekati target. Algoritma backpropagation menggunakan error output untuk mengubah nilai bobot-bobotnya dalam arah mundur backward. Untuk mendapatkan error ini, tahap forward propagasi harus dikerjakan terlebih dahulu. Pada saat forward propagation, neuron-neuron diaktifkan dengan menggunakan fungsi aktivasi. Pada jaringan feedforward, pelatihan dilakukan dalam rangka melakukan pengaturan bobot, sehingga pada akhir pelatihan diperoleh bobot-bobot terbaik. Selama proses pelatihan, bobot-bobot diatur secara iteratif untuk meminimumkan fungsi kinerja jaringan. Fungsi kinerja yang sering digunakan untuk backpropagation adalah mean square error MSE. Fungsi ini mengambil rata- rata kuadrat error yang terjadi antara output jaringan dan target. Sebagian besar algoritma pelatihan untuk jaringan feedforward menggunakan gradien dari fungsi kinerja untuk menentukan bagaimana mengatur bobot dalam rangka meminimumkan kinerja. Gradien ini ditentukan dengan menggunakan suatu teknik yang disebut dengan nama backpropagation. Pada dasarnya algoritma backpropagation menggerakkan bobot dengan arah gradien negatif, algoritma ini memiliki prinsip dasar memperbaiki jaringan dengan arah yang membuat fungsi kinerja menjadi turun dengan cepat Seminar, 2010. Alternatif spesifikasi yang dicoba pada penelitian untuk memperoleh rancangan arsitektur JST dengan kinerja yang terbaik disajikan pada Tabel 15. Tabel 15 merupakan contoh pemilihan arsitektur JST Prakiraan Harga Beras Tipe IR64III. Untuk memperoleh rancangan arsitektur JST backpropagation dengan kinerja sistem yang terbaik diperlukan tahapan sebagai berikut Silvia, 2007:

a. Pemilihan Fungsi Aktivasi

Beberapa alternatif fungsi aktivasi JST yang dicobakan dalam penelitian ini dapat dilihat dari Gambar 33 sampai dengan Gambar 35. - Fungsi sigmoid bipolar tansig Fungsi ini memiliki output dengan interval nilai antara -1 sampai 1. Notasinya tansign = 21+exp-2n-1 Gambar 33. Fungsi Aktivasi Sigmoid Bipolar - Fungsi sigmoid biner logsig Fungsi ini memiliki output dengan nilai interval antara 0 sampai 1. Notasinya logsign = 11+exp-n. Gambar 34. Fungsi Aktivasi Sigmoid Biner - Fungsi identitas purelin Fungsi ini memiliki nilai output yang sama dengan nilai inputnya. Notasinya purelinn = n. Gambar 35. Fungsi Aktivasi Identitas Purelin

b. Pemilihan Algoritma Pelatihan

Proses pelatihan jaringan backpropagation standar dengan metode penurunan gradien traingd seringkali lambat. Beberapa alternatif yang dicoba untuk mempercepat proses belajar Jaringan Syaraf Tiruan JST pada penelitian ini menggunakan Silvia, 2007: - Metode penurunan gradien dengan penambahan momentum traingdm Metode penurunan gradien sangat lambat dalam kecepatan proses iterasi. Dengan penambahan momentum, perubahan bobot tidak hanya didasarkan atas error yang terjadi pada iterasi epoch saat itu, tetapi juga memperhitungkan perubahan bobot pada epoch sebelumnya. Faktor momentum besarnya efek perubahan bobot terdahulu dapat diatur antara 0 sampai 1. Faktor momentum 0 berarti perubahan bobot hanya dilakukan berdasarkan error saat ini penurunan gradien murni. - Metode penurunan gradien dengan momentum dan learning rate traingdx Traingdx merupakan fungsi pelatihan jaringan yang memperbaharui bobot dan nilai bias sesuai dengan penurunan gradien momentum dan learning rate adaptif. Learning rate merupakan parameter pelatihan yang mengendalikan perubahan nilai bobot dan bias selama pelatihan. - Metode Levenberg-Marquadt trainlm Trainlm merupakan fungsi pelatihan jaringan yang memperbaharui bobot dan nilai bias sesuai dengan optimasi Levenberg-Marquadt. - Metode Resilient Backpropagation trainrp Jaringan backpropagation umumnya menggunakan fungsi aktivasi sigmoid. Fungsi sigmoid menerima masukan dari daerah hasil range tak berhingga menjadi keluaran pada daerah hasil 0,1. Semakin jauh titik dari x = 0, semakin kecil gradiennya. Pada titik yang cukup jauh dari x = 0, gradiennya mendekati 0. Hal ini menimbulkan masalah pada waktu menggunakan metode penurunan tercepat yang iterasinya didasarkan pada gradien. Gradien yang kecil menyebabkan perubahan bobot juga kecil, meskipun masih jauh dari titik optimal. Masalah tersebut diatasi dalam resilient backpropagation dengan cara membagi arah perubahan bobot menjadi dua bagian yang berbeda Siang, 2004. Pemilihan Nilai Momentum Penambahan momentum dapat menghindari perubahan bobot yang mencolok akibat adanya data yang sangat berbeda dengan yang lain. Momentum adalah perubahan bobot yang didasarkan atas arah gradien pola terakhir dan pola sebelumnya yang dimasukkan. Nilai momentum yang baik ditentukan dengan cara trial and error Silvia, 2007. Beberapa alternatif nilai momentum yang dicobakan pada penelitian ini adalah 0.005, 0.05, 0.1, 0.5 dan 0.9. Nilai-nilai ini diambil dengan syarat berada di antara 0 dan 1. Pemilihan Target Goal Toleransi Error. Goal error yang dicoba adalah 0.01, 0.001 dan 0.0001. Nilai tersebut merupakan batas toleransi nilai error yang ditentukan agar iterasi dihentikan pada saat nilai error lebih kecil dari batas yang ditentukan atau jumlah epoch telah mencapai batas yang ditentukan. Pemilihan Arsitektur Hidden Layer Penentuan arsitektur hidden layer terdiri dari dua bagian, yaitu penentuan jumlah layer dan ukuran layer jumlah neuron dalam hidden layer. Menurut Seminar et al. 2010, secara umum satu lapisan tersembunyi sudah cukup untuk sembarang pemetaan kontinyu dari pola input ke pola output pada sembarang tingkat akurasi. Untuk itu pada penelitian ini digunakan satu hidden layer. Trial dan error dilakukan pada beberapa alternatif jumlah neuron dalam hidden layer kemudian dipilih alternatif yang memiliki kinerja yang terbaik. Pada spesifikasi pertama dicoba arsitektur dengan beberapa alternatif jumlah neuron, yaitu empat neuron, delapan neuron dan dua belas neuron. Dari beberapa alternatif tersebut dipilih mana yang terbaik. Arsitektur hidden layer dengan kinerja terbaik dipilih untuk rancangan, pelatihan dan pengujian JST. Tabel 16 adalah contoh pemilihan fungsi aktivasi dan algoritma pelatihan untuk JST prakiraan harga beras jenis IR64 III.