• Level Jaringan
Arsitektur jaringan yang dipakai adalah jaringan syaraf multilayer yang terdiri dari input layer, satu buah hidden layer dan output layer. Algoritma yang digunakan
adalah backpropagation.
• Level Proses Belajar Training
Pencatatan statistik dilakukan selama proses belajar training untuk mengukur performansi jaringan yang diukur dengan nilai error. Data input dan data
target akan dimasukkan ke dalam jaringan selama proses belajar berlangsung secara berulang-ulang sampai error akan mendekati nol.
• Testing
Testing jaringan dilakukan setelah proses belajar kemudian bobot jaringan dibekukan dan data yang belum pernah dilihat oleh jaringan dimasukkan. Jika
proses belajar telah dibekukan dengan baik serta topologi jaringannya benar maka jaringan syaraf tiruan akan mempergunakan ‘pengalamannya’ pada data baru ini
dan tetap menghasilkan solusi yang baik. Hal tersebut diisebut dengan kemampuan jaringan dalam melakukan generalisasi.
b. Proses Prediksi • Inisialisasi Bobot
Bobot-bobot dari lapisan input ke lapisan tersembunyi dirancang sedemikian rupa sehingga dapat meningkatkan kemampuan lapisan tersembunyi dalam
melakukan proses pembelajaran. Bobot dalam jaringan terus menerus disesuaikan selama proses belajar sehingga dapat memetakan seluruh pasangan training
dengan tepat. Pada proses belajar ini, kemampuan jaringan untuk melakuan generalisasi menjadi bagian yang sangat menentukan.
• Penentuan Iterasi pada Proses Belajar
Satu epoch adalah satu siklus yang melibatkan seluruh pola data training training pattern. Dalam proses belajar jaringan backpropagation biasanya
memerlukan banyak epoch. Pada penelitian ini ditentukan banyaknya iterasi yang dilakukan pada proses belajar adalah 1000 epoch. Jumlah ini diperkirakan cukup
dan dapat menghasilkan perfomansi jaringan yang baik.
• Penentuan Jumlah Unit dalam Hidden Layer
Penentuan arsitektur hidden layer terdiri dari dua bagian, yaitu penentuan jumlah layer dan ukuran layer. Jumlah layer yang digunakan dalam hidden layer
adalah satu layer. Hal ini dilakukan karena dua pertimbangan, yaitu karena jumlah data training dan waktu training. Selain itu performansi dengan satu hidden layer
juga baik untuk network dengan node yang tidak begitu banyak Medsker, 1994. Trial dan error dilakukan pada beberapa alternatif jumlah unit input layer.
Tabel 27 menyajikan perbandingan beberapa jumlah unit input layer dengan tiga kriteria error.
Tabel 27. Pemilihan Jumlah Unit Input Layer dalam Jaringan Syaraf Tiruan
Jumlah Node Hidden Kriteria Error
3 5
7
Error 0,0846111
0,00996904 0,0097874
Epoch 1000
748 473
Korelasi 0,991
1,000 1,000
RMSE Regresi
1,015 X + -1,480 1,031 X + -2,807
1,028 X + -2,410
Error 0,00994861
0,0099637 0,00999484
Epoch 880
399 332
Korelasi 0,986
0,985 0,985
MSE Regresi
0,959 X + 3,580 1,046 X + -4,365
1,043 X + -4,137
Error 0,295812
0,00969406 0,00997579
Epoch 1000
534 841
Korelasi 0,986
1,000 0,999
SSE Regresi
0,996 X + 0,212 1,015 X + -1,435
1,049 X + -4,468
Berdasarkan tabel perbandingan tersebut maka jumlah unit input layer yang memberikan performansi jaringan yang paling baik dan akan digunakan dalam
proses belajar selanjutnya adalah lima buah unit input layer. Jumlah unit yang optimal dalam hidden layer tidak dapat dinyatakan dengan
pasti akan tetapi ditentukan dengan cara trial dan error dan sangat tergantung pada pengalaman desainer dalam beraplikasi dengan ANN Mesker, 1994. Network
dijalankan dengan beberapa alternatif jumlah unit hidden layer dan dicoba pada ketiga jenis fungsi aktivasi kemudian dipilih alternatif yang memiliki performansi
jaringan yang terbaik. Trial yang dilakukan pada beberapa alternatif jumlah unit hidden. Tabel 28
menunjukan rekapitulasi perbandingan ketiga kriteria error pada ketiga fungsi aktivasi dengan sembilan unit hidden layer.
Tabel 28. Perbandingan Tiga Kriteria Error pada Tiga Fungsi Aktivasi
jumlah unit hidden layer = 9
Linear Kriteria Error
Tansig Logsig
-1 – +1 -INF-+INF
Error 0,00999
0,032227 0,48626
3,68984 Epoch
668 1000
1000 1000
Korelasi 1,000
0,994 0,510
0,461 RMSE
Regresi 1,063X+-3,715
1,022X+-1,899 0,440X+48,297
0,414X+50,657
Error 0,00988
0,009967 0,23646
15,2824 Epoch
402 843
1000 1000
Korelasi 0,985
0,937 0,510
0,463 MSE
Regresi
1,060X+-5,384 0,972X+2,486
0,440X+48,304 0,439X+48,337
Error 0,009856
0,0144 6,62088
429,906 Epoch
591 591
1000 1000
Korelasi 1,000
0,997 0,510
0,462 SSE
Regresi
1,021X+-1,897 1,069X+-6,068
0,440X+48,304 0,438X+48,473
Berdasarkan hasil perbandingan tersebut, maka jumlah unit hidden layer yang akan digunakan adalah sembilan unit hidden layer dengan error terkecil pada
fungsi aktivasi Tansig Fungsi Sigmoid Bipolar.
• Penentuan Learning Rate dan Momentum
Proses belajar jaringan dengan agoritma backpropagation standar biasanya lambat. Beberapa hal yang bisa membuat proses belajar jaringan lebih cepat adalah
penambahan parameter learning rate dan momentum Parameter learning rate menakar besarnya penyesuaian pada bobot ketika
dilakukan proses belajar. Proses belajar jaringan menjadi sangat lambat jika learning rate yang digunakan terlalu kecil akan tetapi bila learning rate yang digunakan terlalu
besar maka proses belajar jaringan akan berosilasi atau menyebar. Hal di atas dapat diminimasi oleh suatu parameter yang dinamakan
momentum. Dalam algoritma backpropagation dengan menggunakan momentum, perubahan bobot adalah pada arah yang merupakan kombinasi antara gradien kini
dan gradien sebelumnya. Momentum akan membuat jaringan melakukan penyesuian bobot yang lebih besar selama koreksinya memiliki arah yang sama
dengan pola yang ada. Sedangkan learning rate yang kecil digunakan untuk mencegah respon yang besar terhadap error dari satu pola proses belajar. Nilai
learning rate dan momentum yang baik ditentukan dengan cara trial dan error
terhadap beberapa nilai learning rate dan momentum. Parameter learning rate dan momentum bernilai antara 0 dan 1.
Trial dimulai dengan nilai learning rate yang kecil, yaitu 0,005 sampai dengan 0,1. Tabel Rekapitulasi trial yang pertama dengan menggunakan fungsi
aktivasi Sigmoid Bipolar Tansig disajikan pada Tabel 29. Tabel 29. Hasil Training JST dengan Fungsi Aktivasi Sigmoid Bipolar Tansig
RMSE MSE
SSE Learning
Rate
Momen tum
Error Epoch
Error Epoch
Error Epoch
0,005 0,9
0,009959 847
0,009999 411
0,00995 593
0,05 0,7
0,011759 1000
0,009945 119
0,009867 958
0,001 0,7
0,009978 1000
0,009960 602
0,009284 881
0,001 0,9
0,009977 876
0,009775 281
0,009720 281
0,1 0,7
0,031972 1000
0,009794 107
0,067758 1000
Hasil Trial yang pertama menunjukan bahwa performansi jaringan yang baik diperoleh pada learning rate 0,005 dengan momentum 0,9. Trial yang kedua
dilakukan dengan menggunakan fungsi aktivasi Sigmoid Biner Logsig. Hasil untuk trial yang kedua disajikan pada Tabel 30.
Tabel 30. Hasil Training JST dengan Fungsi Aktivasi Sigmoid Biner Logsig
RMSE MSE
SSE Learning
Rate Momen
tum Error
Epoch Error
Epoch Error
Epoch
0,005 0,9
0,044558 1000
0,009978 719
0,040957 1000
0,05 0,9
0,116593 1000
0,009939 748
0,080207 1000
0,001 0,9
0,228258 1000
0,048055 1000
1,650950 1000
0,001 0,9
0,020606 1000
0,009935 454
0,029224 1000
0,1 0,9
0,118867 1000
0,009923 435
0,31492 1000
Hasil trial yang kedua menunjukkan bahwa dengan menggunakan fungsi aktivasi Logsig, performansi jaringan tidak menjadi lebih baik dari sebelumnya.
Seperti trial yang dilakukan sebelumnya, semakin besar nilai momentum yang digunakan semakin baik pula performansi jaringan. Trial-trial selanjutnya dilakukan
dengan menggunakan fungsi aktivasi Linear pada range -1 sampai dengan +1 seperti yang ditunjukan pada Tabel 31.
Tabel 31. Hasil Training dengan Fungsi Aktivasi Linear
range -1 sampai dengan +1
RMSE MSE
SSE Learning
Rate Momen
tum Error
Epoch Error
Epoch Error
Epoch
0,005 0,7
0,486262 1000
0,236449 1000
6,62095 1000
0,05 0,1
0,489169 1000
0,236763 1000
6,68910 1000
0,001 0,3
0,486253 1000
0,236441 1000
6,62036 1000
0,001 0,7
0,486271 1000
0,236458 1000
6,62230 1000
0,1 0,7
0,486969 1000
0,238374 1000
6,69000 1000
Hasil performansi sementara dari Tabel 29 sampai dengan Tabel 31 menunjukkan bahwa jaringan dengan learning rate 0,005 dan momentum 0,9
dengan fungsi aktivasi Sigmoid Bipolar Tansig memberikan hasil terbaik dengan nilai error terkecil. Selanjutnya trial dan error dilakukan kembali pada fungsi aktivasi
Linear dengan range –inf sampai dengan +inf. Tabel 32. Hasil Training dengan Fungsi Aktivasi Linear
range -inf sampai dengan +inf
RMSE MSE
SSE Leaning
Rate Momen
tum Error
Epoch Error
Epoch Error
Epoch
0,005 0,5
3,71366 1000
14,0253 1000
387,2020 1000
0,05 0,9
4,07875 1000
80,0782 1000
387,3720 1000
0,001 0,5
3,67625 1000
13,5864 1000
379,150 1000
0,001 0,5
3,74865 1000
14,2566 1000
454,525 1000
0,1 0,3
3,6939 1000
55,1151 1000
1790,12 1000
Dari hasil trial untuk beberapa fungsi aktivasi di atas terlihat bahwa performansi training terbaik dicapai oleh jaringan dengan nilai learning rate 0,005
dan nilai momentum 0,9 dengan menggunakan fungsi aktivasi Sigmoid Bipolar Tansig, karena memiliki nilai error terkecil. Arsitektur JST diperlihatkan pada
Gambar 28 sedangkan struktur JST yang digunakan pada penelitian disajikan pada Tabel 33.
Gambar 28. Arsitektur Jaringan Syaraf Tiruan
X f
X= ω
i
x
i
OUT PUT Y= f x
X
t-1
X
t-2
....
Algoritma yang digunakan adalah sebagai berikut :
INISIASI : Bobot v
ij
dan w
jk
dan learning rate SELAMA KRITERIA = SALAH LAKUKAN :
Untuk setiap x dan t, lakukan ♣ X
i
= x
i
Untuk I = 1 sd n
♣ Sinyal masuk ke unit hidden
p. sd
1 j
untuk z
j
= =
=
∑
= j
n i
ij i
j
Zin f
v x
Zin
♣ Sinyal masuk ke unit output
m. sd
1 k
untuk y
k
= =
=
∑
= k
n j
jk j
k
Yin g
w z
Yin
♣ Setiap unit output menghitung suku error terhadap targetnya
m. sd
1 k
untuk
1
= −
= ∂
k k
k k
Yin g
y t
♣ Suku error dipancarkan ke layer Z.
p. sd
1 j
untuk
2 1
1
= ∂
= ∂
∂ =
∂
∑
= j
j j
m k
jk k
j
Zin f
in w
in
♣ Menghitung bobot yang baru
p. sd
1 j
dan n
sd i
Untuk lama
v baru
v m.
sd 1
k dan
p sd
j Untuk
lama w
baru w
2 ij
ij 1
jk jk
= =
∂ +
= =
= ∂
+ =
i j
j k
x z
α α
KRITERIA PENGHENTIAN
Tabel 33. Struktur Jaringan Syaraf Tiruan yang Digunakan pada Penelitian ini
Karakteristik Spesifikasi
Arsitektur Jumlah unit Lapisan input
5 unit Jumlah unit Lapisan tersembunyi
9 unit Jumlah unit Lapisan output
1 unit Inisialisasi bobot
Nguyen Widrow Fungsi Aktivasi
Sigmoid Bipolar Toleransi
0,01 Laju pembelajaran
0,005 Jumlah epoch
1000 Momentum
0,9
c. Proses Penilaian