3.4 Proses Penyelesaian Masalah 3.4.1 Perancangan Jaringan Backpropagation
Jaringan syaraf tiruan backpropagation tersusun atas beberapa lapisan, dimana masing – masing lapisan terdiri dari beberapa unit pengolahan data. Pada penelitian
ini, arsitektur jaringan yang digunakan terdiri dari tiga lapisan, yaitu satu lapisan masukan input, satu lapisan tersembunyi hidden dan satu lapisan keluaran
output. Data yang berfungsi sebagai masukan dan keluaran yang diperoleh dari
penelitian dibagi menjadi dua kelompok besar, yaitu data untuk proses pelatihan dan data untuk pengujian. Tergolong sebagai masukan dan target adalah 50 set
data, dijadikan sebagai matriks dengan ukuran 5 x 50 untuk data pelatihan dan 15 set data digunakan sebagai data pengujian dengan ukuran matriks 5 x 15. Data
pelatihan dan pengujian telah diolah dinormalisasi dalam bentuk numerik antara 0 dan 1. Lapisan input terdiri dari empat variabel X
1
,X
2
,X
3
,X
4
yang masing- masingnya terdiri dari 50 data.Jumlah lapisan tersembunyi yang digunakan adalah
satu, dengan jumlah neuron yang digunakan adalah empat. Fungsi aktivasi yang digunakan adalah fungsi sigmoid dengan ukuran rentang nilai 0 dan 1.
3.4.2 Arsitektur Jaringan
Dalam mendesain simulasi jaringan syarat tiruan meliputi beberapa tingkatan yaitu :.
1. TingkatNeuron
Pada simulasi ini menggunakan variabel input berdasarkan data yang diperolah dari Data UCI. Data yang diperoleh mengunakan data yang berupa
bilangan real. Data tersebut kemudian di normalisasi. Sedangkan untuk outputnya adalah nilai kondisi yang direpresetansi dengan bilangan biner 0
untuk kondisi layak untuk di donor dan 1 untuk nilai kondisi tidak layak di donor. Fungsi aktivasi yang akan digunakan aktivasi sigmoid biner dengan
alasan bahwa fungsi aktivasi yang palingstandar digunakan untuk jaringan syaraf tiruan backpropagation.
Universitas Sumatera Utara
2. Tingkat Jaringan
Pada tingkat jaringan dilakukan penentuan banyaknya lapisan. JST Backpropagation dinyatakan sebagai jaringan multilayer dimana
jaringan memiliki hidden layer yang berjumlah satu. Jaringan syarat tiruan tersebut hanya akan menerima input berkisar antara 0 sampai
dengan 1 sehingga data penelitian harus diatur sebagai sekumpulan angka agar mempermudah proses komputasi.
3. Tingkat Pelatihan.
Rancangan jumlah neuron pada JST Backpropagation untuk simulasi : a.
Jumlah neuron lapisan input sebanyak 4 neuron b.
Jumlah lapisan hidden layer sebanyak 4 neuron c.
Jumlah lapisan output terdiri atas satu neuron.
JST Backpropagation diterapkan untuk mendapatkan kesetimbangan antara kemampuan memorisasi dan kemampuan menggeneralisasi maka untuk
melanjutkan proses pelatihan sampai nilai errornya mencapai nilai minimum. Oleh sebab itu nilai error yang dapat diterima jaringan atau yang disering disebut galat
error harus ditentukan terlebih dahulu dengan tujuan untuk menghentikan pelatihan. Apabila error jaringan lebih kecil atau sama dengan nilai galat error
yang telah ditentukan tersebut. Pada simulasi ini nilai batas error yang direncanakan akan digunakan sebesar 0,01. Nilai batas error yang dipilih yang
bernilai kecil untuk tetap menjaga keakuratan hasil yang diperoleh.
Universitas Sumatera Utara
Gambar 3.2
Arsitektur jaringan yang digunakan
Keterangan gambar 3.2 : Dataset
: Dataset yang digunakan blood transfusion service X1, X2,X3,X4
: Masukkan data Input 1 – 50 data Z1,Z2,Z3,Z4
: Jumlah neuron pada hidden layer V11,V12
: Bobot pada lapisan tersembunyi W1k, W2k, W3k,Wjk : Bobot matrik pada lapisan keluaran
Y0 : Keluaran hasil
Arsitektur jaringan yang dipilih yaitu dengan jaringan yang kecil dengan satu hidden layer. Tiap neuron pada lapisan masukan menerima sinyal masukan berupa nilai
X1 s.d X4 dan meneruskannya ke neuron pada hidden layer diatasnya. Jumlah neuron pada lapisan masukan sesuai dengan variabel yang dipilih sebagai masukan jaringan dan
ditambah satu buah neuron bias. Bobot dan bias awal diinisialisasi dengan bilangan acak kecil antara -1 hingga 1.
Bobot awal akan mempengaruhi titik minimum lokal atau minimum global dan lama konvergensinya. Bobot awal yang terlalu besar membuat nilai turunan fungsi aktivasi
menjadi kecil, hal ini menyebabkan perubahan bobotnya menjadi sangat kecil juga
Universitas Sumatera Utara
Hal lain yang diperlukan juga adalah parameter yang diatur dalam jaringan meliputi :
a. Laju pembelajaran
Laju pembelajaran yang dipilih mulai dari 0,1 dan digeneratekan secara acak
b. Momentum
Konstanta momentum berupa bilangan positif antara 0 hingga 1 c.
Jumlah iterasi maksimum Maksimum iterasi adalah jumlahepoch maksimum yang boleh dilakukan
selama proses pelatihan. Iterasi akan berhenti apabila jumlah epoch yang sudah dilatihkan melebihi jumlah maksimum epoch.
Pada proses pelatihan algoritma backpropagation adaptive learning maka di gambarkan dengan diagram alir pada gambar 3.3.
Universitas Sumatera Utara
Gambar 3.3
Diagram alir algoritma backpropagation adaptive learning
Universitas Sumatera Utara
untuk pelatihan algoritma backpropagation dengan adaptive learning rate dan koefisien momentum di jelaskan dengan pseducode pada gambar 3.4
Desain tampilan simulasi
Gambar 3.4
Algoritma backpropagation adaptive learning
DECLARE wjk_sebelum[] AS ARRAY DECLARE wjk_baru[] AS ARRAY
DECLARE jumlah_baris_data AS INT SET epoch_max = 1000
SET error_max = 0,1 READ jumlah_baris_data
FOR j = 0 to j = epoch_max FOR i = 0 to i = jumlah_baris_data
Wjk_baru[i]=wjk[i] + learning rate δk zj + μwjk[i] - wjk_sebelum[i] END FOR
CLEAR wjk_sebelum[] SET wjk_sebelum[] CLONE AS wjk[]
CLEAR wjk[] SET wjk[] CLONE from Wjk_baru[]
CLEAR Wjk_baru[] IF error = error_max THEN
EXIT FOR END IF
END FOR adaptive learning rate
If MSESumMSE_max
Then Learning rate = learning rate 0.7
Else learning rate = learning rate 1.05
EndIf End
Universitas Sumatera Utara
3.3.3 Desain Tam