Analisis Faktor Kritis Penyediaan Pupuk Bersubsidi

23 faktor yang didapatkan tersebut dilakukan pengurutan berdasarkan tingkat penyebab utama kelangkaan yang terjadi dengan menggunakan Metode Perbandingan Eksponensial. Setelah diurutkan faktor penyebab tersebut dianalisis kembali dengan Analytical Hierarchy Process berdasarkan penilaian pakar. Langkah selanjutnya adalah membuang faktor yang diduga bukan merupakan faktor kritis dan mengumpulkan data sekunder dari faktor kritis dari dinas setempat dan juga BPS serta berbagai sumber lain. Setelah data terkumpul, data dinormalisasi ke dalam selang 0.1 dan 0.9 menggunakan persamaan sebagai berikut : .8 x min x max x min x . Normalisasi ini dilakukan mengingat salah satu fungsi aktifasi sigmoid yang akan digunakan merupakan fungsi asimotik yang nilainya tidak pernah mencapai nilai 0 ataupun 1 Siang 2009.

3.2.3 Pelatihan Jaringan

Merujuk dari penelitian sebelumnya oleh Seminar et al. 2009 maka arsitektur yang digunakan adalah Multi-Layer Percepton dengan menggunakan 2 hidden layer dan Algoritma pembelajarannya adalah Backpropagation. Menurut Siang 2009, jaringan dengan satu hidden layer sudah cukup untuk sembarang perkawanan antara masukan dan target dengan tingkat ketelitian yang ditentukan. Akan tetapi penambahan jumlah hidden layer kadangkala membuat pelatihan menjadi lebih mudah. Dalam Algoritma Backpropagtion setidaknya ada 3 langkah penting dalam pelatihan jaringannya, yaitu tahap Fase Maju, Fase Mundur, dan Perubahan Bobot. Berikut adalah tahapan detail dari setiap langkah pelatihan Jaringan Backpropagation. Langkah 0. Inisialisasi bobot biasanya digunakan nilai acak yang kecil set laju pembelajaran  Langkah 1. Selama syarat henti salah, lakukan langkah 2 – 11 Langkah 2. Untuk setiap pasangan pelatihan masukan dan target, lakukan langkah 3 – 10.  Fase Maju Langkah 3. Setiap unit masukan X i , i=1, ..., n menerima sinyal masukan x i dan meneruskannya ke seluruh unit pada lapisan di atasnya hidden units. Langkah 4. Setiap unit tersembunyi kesatu Z h , h = 1,…., q menghitung total sinyal masukan terbobot,     n i ih i oj h ij u x u in z 1 _ lalu menghitung sinyal keluarannya dengan fungsi aktivasi, _ h h in z f z  dan mengirimkan sinyal ini keseluruh unit pada lapisan tersembunyi kedua Langkah 5. Setiap unit tersembunyi pada lapisan kedua ZZ j , j = 1,…., p menghitung total sinyal masukan terbobot,     n i hj h oj j v z v in zz 1 _ lalu menghitung sinyal keluarannya dengan fungsi aktivasi, _ j j in zz f zz  24 Langkah 6 Setiap unit output Y k , k= 1,...,m menghitung total sinyal masukan terbobot,     p j jk j k k w zz w in y 1 , _ lalu menghitung sinyal keluaran dengan fungsi aktivasi _ k k in y f y   Fase Mundur Langkah 7. Setiap unit output Y k , k=1,…,m menerima sebuah pola target yang sesuai dengan pola masukan pelatihannya. Unit tersebut menghitung error, _ k k k k in y f y t    kemudian menghitung koreksi bobot digunakan untuk mengubah w jk j k jk zz w    dan menghitung koreksi bias k k w    serta mengirimkan nilai k  ke unit pada lapisan tersembunyi ZZ j , j = 1…….p Langkah 8. Setiap unit tersembunyi ZZ j , j = 1…….p menghitung selisih input dari unit-unit pada layer di atasnya,    m k jk k j w in 1 _   lalu mengalikannya dengan turunan fungsi aktivasi untuk menghitung informasi errornya, _ _ j j j in zz f in    selanjutnya menghitung koreksi bobot untuk mengubah v i j nanti, i j ij x v    dan menghitung koreksi biasnya j j v    dan mengirim j  ke lapisan tersembunyi ke dua Z h , h=1.....q . Langkah 9 Untuk setiap lapisan tersembunyi Z h , h=1.....q : Menjumlahkan bobot input dari unit-unit pada layer di atasnya,    p k hj j h v in 1 _   lalu mengalikannya dengan turunan fungsi aktivasi untuk menghitung informasi errornya, _ _ h h h in z f in    selanjutnya menghitung koreksi bobot untuk mengubah v i j nanti, i h ih x u    dan menghitung koreksi biasnya j j v   