43 Tiga tingkat kerawanan tersebut ditransformasikan menjadi sebuah bilangan bulat kecil, tingkat
kerawanan tersebut adalah : 1.
Aman
1 2.
Normal
2 3.
Rawan
3 Level kelangkaan pupuk tersebutlah yang akan dijadikan target pelatihan dan juga akan digunakan
sebagai alat untuk memvalidasi dan mengukur kemampuan kerja dari jaringan syaraf tiruan yang akan dikembangkan sebagai sistem deteksi dini. Adapun nilai diluar tersebut akan diberi keterangan ragu-
ragu karena jaringan dianggap belum mengenali pola tersebut.
5.2 Model Jaringan Syaraf
Tahapan selanjutnya adalah mempersiapkan arsitektur jaringan yang terbaik yang diharapkan dapat mengenali pola yang akan dilatihkan terhadap jaringan tersebut. Pada tahapan ini penentuan
arsitektur jaringan diperoleh dari metode Trial and Error dan juga referensi dari penelitian sebelumnya yang dianggap dapat mewakili kondisi pada pola yang akan dikembangkan ini. Seperti
yang telah dijelaskan dalam Bab 3, arsitektur jaringan yang akan dikembangkan meliputi penentuan learning rate
dan momentum, penentuan fungsi aktivasi, pemilihan bobot awal, penentuan jumlah iterasi, penentuan jumlah layer, jumlah neuron hidden layer, neuron input, neuron output dan
toleransi error berdasarkan MSE. Gambar arsitektur jaringan yang dikembangkan dapat dilihat pada Lampiran 1.
Untuk menentukan fungsi aktivasi, pemilihan bobot awal, penentuan jumlah iterasi, toleransi error
berdasarkan MSE, jumlah hidden layer, neuron input, dan jumlah neuron output didasarkan pada penelitian terdahulu. Ketentuan arsitektur jaringan yang akan dikembangkan ini dapat dilihat
pada Tabel 2. Sedangkan untuk menentukan jumlah neuron pada hidden layer dan menentukan learning
rate dan momentumnya serta algoritma pembelajarannya akan digunakan metode trial and error untuk
mendapatkan kinerja terbaik berdasarkan nilai error MSE terkecil. Untuk menentukan jumlah minimal neuron dalam suatu hidden layer dapat digunakan persamaan berikut :
nh = ½ ni+no + √ndt
Keterangan : nh = Jumlah minimal neuron dalam hidden layer
ni = Jumlah neuron input no = Jumlah neuron output
ndt = Jumlah data pelatihan Skapura 1996 dalam Salya 2006 Dari persamaan di atas didapatkan bahwa neuron pada hidden layer minimal untuk mendapatkan
kinerja yang baik adalah 13 neuron. Nilai tersebut adalah nilai minimal jumlah hidden layer yang dibutuhkan menurut Skapura 1996. Penambahan jumlah neuron pada hidden layer dapat membuat
jaringan mampu menyelesaikan permasalahan yang lebih kompleks. Oleh karena itu, untuk mendapatkan hasil yang lebih baik maka akan diujikan beberapa alternatif arsitektur jaringan yang
disajikan pada Tabel 7.
44 Tabel 7. Alternatif Penentuan Arsitektur Jaringan
Karakteristik Spesifikasi
Laju pembelajaran 0.005, 0.3, 0.2, dan 0.1
Momentum 0.005, 0.1, 0.6 dan 0.9
Neuron Hidden layer 1 dan 2 20; 10, 40, 20 dan 60, 30
Algoritma Pembelajaran Traingdx dan Trainlm
Setelah spesifikasi arsitektur jaringan ditentukan langkah, selanjutnya adalah melakukan pengujicobaan terhadap jaringan dengan ketentuan seperti yang telah ditetapkan di atas. Hasil yang
diperoleh dari pengujian untuk menentukan arsitektur jaringan yang terbaik dinilai dari error yang dihasilkan disajikan pada Tabel 8.
Tabel 8. Hasil Pengujian Learning Rate, Momentum dan Learning Algorithm
Learning Algorithm
Learning Rate
Momentum MSE Epoch
Trainlm 0.005 0.005
4.75e-13 37
0.3 0.1 2.65e-09
2 0.2 0.6
4.28e-07 79
0.1 0.9 1.20e-07
39 Traingdx
0.005 0.005 0.0138
5000 0.3 0.1
0.0175 5000
0.2 0.6 0.0116
5000 0.1 0.9
0.00938 5000
Dari hasil di atas arsitektur dengan learning rate dan momentum dengan nilai masing-masing 0.005 memiliki nilai error yang paling kecil jika dibandingkan dengan yang lain. Dari hasil tersebut maka
diputuskan bahwa nilai learning rate dan momentum yang digunakan adalah 0.005 dengan learning algorithm
nya adalah trainlm. Sedangkan pengujian dengan kombinasi learning rate dan momentum dengan menggunakan algoritma pembelajaran traingdx tidak ada yang bisa mencapai target error,
yaitu 0.0000005 5.10
-7
. Traingdx adalah fungsi pelatihan jaringan yang mengupdate bobot neuron dan nilai-nilai bias sesuai dengan momentum penurunan gradient dan laju pembelajaran adaptif. Hasil
pegujian dengan traingdx dengan target yang tidak tercapai disajikan pada Gambar 17.
Gambar 17. Pegujian dengan Traingdx dengan target yang tidak tercapai
45 Dalam algoritma backpropagation dengan menggunakan momentum, perubahan bobot didasarkan atas
gradien yang terjadi untuk pola yang dimasukkan saat itu. Momentum akan membuat jaringan melakukan penyesuaian bobot yang lebih besar selama koreksinya memiliki arah yang sama dengan
pola ada. Sedangkan learning rate yang kecil digunakan untuk mencegah respon yang terlalu besar terhadap error dari satu pola proses belajar. Tahapan selanjutnya adalah pengujian untuk menentukan
jumlah neuron pada hidden layer pertama dan kedua. Hasil pengujian jumlah neuron pada Hidden Layer
disajikan pada Tabel 9. Tabel 9. Hasil pengujian jumlah neuron pada Hidden Layer
Hidden 1 Hidden 2
MSE Epoch
20 10 1.54e-07
40 40 20
2.91e-08 41
60 30 2.55e-09
66 Hasil pengujian untuk menentukan jumlah neuron pada hidden layer 1 dan 2 menunjukkan bahwa
hasil terbaik diperoleh oleh kombinasi antara 60 neuron untuk hidden layer 1 dan 30 untuk hidden layer
2, yaitu dengan nilai MSE terkecil. Maka dengan diperolehnya hasil ini, konfigurasi yang terbaik untuk model pelatihan jaringan syaraf tiruan dengan pola data yang ada telah didapatkan.
5.3 Pelatihan Jaringan Syaraf