23 faktor yang didapatkan tersebut dilakukan pengurutan berdasarkan tingkat penyebab utama
kelangkaan yang terjadi dengan menggunakan Metode Perbandingan Eksponensial. Setelah diurutkan faktor penyebab tersebut dianalisis kembali dengan Analytical Hierarchy Process berdasarkan
penilaian pakar. Langkah selanjutnya adalah membuang faktor yang diduga bukan merupakan faktor kritis dan mengumpulkan data sekunder dari faktor kritis dari dinas setempat dan juga BPS serta
berbagai sumber lain. Setelah data terkumpul, data dinormalisasi ke dalam selang 0.1 dan 0.9 menggunakan persamaan sebagai berikut :
.8 x min x max x
min x .
Normalisasi ini dilakukan mengingat salah satu fungsi aktifasi sigmoid yang akan digunakan merupakan fungsi asimotik yang nilainya tidak pernah mencapai nilai 0 ataupun 1 Siang 2009.
3.2.3 Pelatihan Jaringan
Merujuk dari penelitian sebelumnya oleh Seminar et al. 2009 maka arsitektur yang digunakan adalah Multi-Layer Percepton dengan menggunakan 2 hidden layer dan Algoritma pembelajarannya
adalah Backpropagation. Menurut Siang 2009, jaringan dengan satu hidden layer sudah cukup untuk sembarang perkawanan antara masukan dan target dengan tingkat ketelitian yang ditentukan. Akan
tetapi penambahan jumlah hidden layer kadangkala membuat pelatihan menjadi lebih mudah. Dalam Algoritma Backpropagtion setidaknya ada 3 langkah penting dalam pelatihan jaringannya, yaitu tahap
Fase Maju, Fase Mundur, dan Perubahan Bobot. Berikut adalah tahapan detail dari setiap langkah pelatihan Jaringan Backpropagation.
Langkah 0. Inisialisasi bobot biasanya digunakan nilai acak yang kecil set laju pembelajaran
Langkah 1.
Selama syarat henti salah, lakukan langkah 2 – 11 Langkah 2.
Untuk setiap pasangan pelatihan masukan dan target, lakukan langkah 3 – 10.
Fase Maju
Langkah 3.
Setiap unit masukan X
i
, i=1, ..., n menerima sinyal masukan x
i
dan meneruskannya ke seluruh unit pada lapisan di atasnya hidden units.
Langkah 4. Setiap unit tersembunyi kesatu Z
h
, h = 1,…., q menghitung total sinyal masukan
terbobot,
n i
ih i
oj h
ij
u x
u in
z
1
_ lalu menghitung sinyal keluarannya dengan fungsi aktivasi,
_
h h
in z
f z
dan mengirimkan sinyal ini keseluruh unit pada lapisan tersembunyi kedua
Langkah 5. Setiap unit tersembunyi pada lapisan kedua ZZ
j
, j = 1,…., p menghitung total
sinyal masukan terbobot,
n i
hj h
oj j
v z
v in
zz
1
_ lalu menghitung sinyal keluarannya dengan fungsi aktivasi,
_
j j
in zz
f zz
24 Langkah 6
Setiap unit output Y
k
, k= 1,...,m menghitung total sinyal masukan terbobot,
p j
jk j
k k
w zz
w in
y
1 ,
_ lalu menghitung sinyal keluaran dengan fungsi aktivasi
_
k k
in y
f y
Fase Mundur
Langkah 7. Setiap unit output Y
k
, k=1,…,m menerima sebuah pola target yang sesuai dengan
pola masukan pelatihannya. Unit tersebut menghitung error, _
k k
k k
in y
f y
t
kemudian menghitung koreksi bobot digunakan untuk mengubah w
jk j
k jk
zz w
dan menghitung koreksi bias
k k
w
serta mengirimkan nilai
k
ke unit pada lapisan tersembunyi ZZ
j
, j = 1…….p Langkah
8. Setiap
unit tersembunyi
ZZ
j
, j = 1…….p menghitung selisih input dari unit-unit
pada layer di atasnya,
m k
jk k
j
w in
1
_
lalu mengalikannya dengan turunan fungsi aktivasi untuk menghitung informasi errornya,
_ _
j j
j
in zz
f in
selanjutnya menghitung koreksi bobot untuk mengubah v
i j
nanti,
i j
ij
x v
dan menghitung koreksi biasnya
j j
v
dan mengirim
j
ke lapisan tersembunyi ke dua Z
h
, h=1.....q .
Langkah 9 Untuk setiap lapisan tersembunyi Z
h
, h=1.....q :
Menjumlahkan bobot input dari unit-unit pada layer di atasnya,
p k
hj j
h
v in
1
_
lalu mengalikannya dengan turunan fungsi aktivasi untuk menghitung informasi errornya,
_ _
h h
h
in z
f in
selanjutnya menghitung koreksi bobot untuk mengubah v
i j
nanti,
i h
ih
x u
dan menghitung koreksi biasnya
j j
v