44 max
= nilai maksimum dari seluruh data Berikut merupakan contoh beberapa data yang telah di normalisasi dengan nilai
minimum = 1 dan nilai maksimum = 23.
Tabel 3.4 Contoh Data Normalisasi
X1 X2
X3 X4
X5 X6
X7 X8
X9 X10
X11
0.1 0.209
0.209 0.209
0.282 0.245
0.1 0.464
0.136 0.173
0.355 0.1
0.1 0.1
0.173 0.282
0.136 0.1
0.5 0.391
0.245 0.391
0.173 0.209
0.1 0.318
0.209 0.318
0.1 0.5
0.1 0.245
0.355
3.5. Arsitektur Jaringan Saraf Tiruan
Arsitektur jaringan saraf tiruan terdiri dari lapisan input input layer, lapisan tersembunyi hidden layer dan lapisan output output layer. Berikut adalah rincian
arsitektur jaringan saraf tiruan yang digunakan: 1. Lapisan masukan input layer terdiri 11 neuron dan ditambah sebuah bias.
2. Lapisan tersembunyi hidden layer terdiri dari dua lapis. Banyaknya jumlah neuron pada hidden layer yang akan digunakan ditentukan berdasarkan
percobaan yang dilakukan beberapa kali untuk mendapat arsitektur terbaik, Setiap masing-masing hidden layer akan ditambah dengan sebuah bias.
3. Lapisan keluaran output layer yang digunakan sebanyak satu lapis dengan 3 neuron.
Fungsi aktivasi yang akan digunakan dari input layer menuju hidden layer pertama adalah fungsi aktivasi sigmoid, begitu juga dari hidden layer pertama menuju
hidden layer kedua menggunakan fungsi aktivasi sigmoid sedangkan pada output layer akan digunakan fungsi aktivasi linier dengan nilai minimal error yaitu 0.01
dengan nilai learning rate yang berada pada range 0.1 sampai dengan 0.9. Rancangan arsitektur secara umum dapat dilihat pada gambar 3.2.
Universitas Sumatera Utara
45
Gambar 3.2 Arsitektur JST
Keterangan: X
= input neuron pada input layer Z
= hidden neuron pada hidden layer Y
= output neuron pada output layer V
11,..
V
n
= bobot dari input layer ke hidden layer pertama
W
11
,..W
n
= bobot dari hidden layer pertama ke hidden layer kedua
1
= bias dari input layer ke hidden layer
2
= bias dari hidden layer ke output layer
3
= bias dari hidden layer ke output layer
Universitas Sumatera Utara
46
3.6. Training
Proses training pada JST memerlukan data input dan data target. Training meliputi proses iteratif dari data input yang dimasukkan ke dalam jaringan sehingga jaringan
dapat belajar dan menyesuaikan data yang dilatih dengan data target yang diinginkan. Training dilakukan untuk mencari nilai bobot yang menghubungkan semua neuron
sehingga meminimalkan error yang dihasilkan oleh output jaringan.
Proses training JST menggunakan sebanyak 80 jumlah data yang terdiri dari input data dan output target, kemudian data training dinormalisasi sebelum diproses
kedalam jaringan. Pada proses ini akan dilakukan pelatihan dengan arsitektur JST dari jumlah hidden neuron yang berbeda-beda. Setiap arsitektur yang diuji tersebut akan
menghasilkan bobot pelatihan yang nantinya akan digunakan sebagai bobot awal pada proses testing. Kemudian inisialisasi bobot dan bias untuk menghitung nilai output
dari setiap neuron yang akan dikalikan dengan fungsi aktivasi dan learning rate.
Setelah nilai output jaringan pada lapisan output diperoleh, hitung nilai error dari jaringan, kemudian nilai error dibandingkan dengan nilai error target yang telah
ditetapkan. Jika error jaringan yang dihasilkan tidak lebih kecil atau sama dengan nilai error yang telah ditetapkan, maka akan dilakukan proses backprop dengan
memodifikasi bobot jaringan dan bias pada iterasi tertentu hingga didapatkan nilai error minimum mendekati error target yang telah ditetapkan sebelumnya. Ketika
kondisi error lebih kecil daripada error target maka bobot tersebut akan disimpan sebagai bobot terpilih dalam proses training. Berikut adalah flowchart training
Backpropagation:
Universitas Sumatera Utara
47
Mulai
Jlh neuron;lr; jlh layer =4; maxEpoch=10000;
minError=0.01 Inisialisasi bobot dan bias
e =1 e e+1
Data pelatihan
Data = n Langkah maju
Feed forward Langkah mundur
back forward
Data = jlh data pelatihan
Hitung error pelatihan
Update bobot dan bias dengan
metode resilient backpropagation
Error = target
Bobot terbaik
Selesai Ya
Tidak Tidak
Ya Load Data Pelatihan
Data = normalisasi?
ya normalisasi
tidak
Gambar 3.3 Flowchart training JST
Universitas Sumatera Utara
48
3.7. Perhitungan