data = data_norm1:nrow,:; ----------input data normalisasi -----------------------
nrow_train=200; nrow_test=nrow-nrow_train;
Ptrain = data1:nrow_train,1:sizedata,2-1; Ttrain = data1:nrow_train,sizedata,2;
Ptest = datanrow_train+1:nrow_train+nrow_test,1:sizedata,2-1; Ttest = datanrow_train+1:nrow_train+nrow_test,sizedata,2;
----------END OF INPUT DATA PREPARATION--------------------
Data dibagi dua, data pelatihan dan data untuk pengujian. Berikut ini fungsi normalisasi: function
data_norm= normalisasidata for
i=1:5 maxri=maxdata:,i;
minri=mindata:,i; deltai = maxri-minri;
data_norm:,i = 2data:,i-minrideltai-1; end
end rumus perhitungan normalisasi sederhana, dengan batasan nilai antara -1 dan 1:
data = 2data-minmax – min-1
Oleh karena itu aktivasi yang cocok dan sesuai untuk topologi jaringan ini adalah sigmoid bipolar. Karena sigmoid bipolar melewatkan nilai antara -1 dan 1. Aktivasi ini seragam untuk
semua lapisan.
3.2 Jaringan Feedforward
Universitas Sumatera Utara
Topologi jaringan yang digunakan pada penulisan ini adalah jaringan tipe Feedforward atau alur maju, karena jaringan lapis tunggal ini terdiri dari S
logsig neurons yang memiliki R input
seperti di perlihatkan pada gambar kiri dan dengan diagram lapis pada gambar sebelah kanannya.
Gambar 3.3a Jaringan Tunggal dari Gambar 3.3b Diagram Lapis
S logsing S Logsing Neuron
Jaringan Feedforward bias memiliki satu atau lebih lapisan tersembunyi dari sigmoid neurons yang diikuti oleh output layer dari linear neurons. Lapisan ganda dari neuron dengan
fungsi transfer tidak linear membolehkan jaringan untuk mempelajari hubungan nonlinear dan linear antara input dan output vectors. Linear output layer mengijinkan jaringan untuk
menghasilkan nilai diluar antara -1 dan +1.
Di sisi lain, jika ingin membatasi output jaringan seperti misalnya hanya nilai antara 0 dan 1, termasuk nilai pecahan 0.1; 0.25 dan seterusnya, maka fungsi transfer akan menggunakan
sigmoid transfer function seperti misalnya logsig
. Pada skripsi ini output di set antara -1 dan 1.
Untuk multilayer network, jumlah lapisan layer menentukan jumlah matrik bobot. The appropriate notation is used in the two-layer
tansig purelin
network shown next.
Universitas Sumatera Utara
Gambar 3.4 Jaringan feedforward
3.2.1 Membangun Suatu Jaringan Alur Maju Feedforward newff
Langkah pertama pada pembelajaran suatu jaringan alur maju adalah membuat obyek jaringan. Fungsi
newff merupakan suatu objek jaringan alur maju. Fungsi Newff memerlukan tiga
arguments. Argument pertama adalah R-element input vectors, argument kedua adalah S- element target vectors dan argumen ke tiga adalah sebuah array yang berisi ukuran atau nilai di
tiap hidden layer.
Argument lain bisa di tambah sesuai dengan pilihan misalnya argument ke empat adalah setting untuk nama dari transfer functions yang digunakan pada tiap lapisan. Argument ke lima
berisi nama pilihan training function yang dipakai. Jika hanya diisi tiga argument saja maka default transfer function untuk hidden layer secara otomatis akan di set ke
tansig dan default
untuk output layer sebagai purelin
. Sedangkan default training function adalah dapat benilai trainlm
.
Tabel 3.5 Argumen untuk Tiap Lapisan Default Nilai
Transfer function Hidden layer Tansig
Transfer function output layer Purelin
Universitas Sumatera Utara
Training function Trainlm
Pada penulisan ini layer fungsi transfer tansig merupakan fungsi transfer yang digunakan untuk lapisan output. Pada langkah pertama hidden layer dibuat hanya satu, dengan 4 buah
Neuron. Fungsi transfer default pada lapisan tersembunyi adalah tan-sigmoid, dan digunakan untuk lapisan output linier.
jumlah hidden layers hidden_layers =4;
create struktur jaringan objek net = newffPtrain,Ttrain,hidden_layers;
Di mana
net = newffP,T,[S1 S2...SN-l],{TF1 TF2...TFNl}, BTF,BLF,PF,IPF,OPF,DDF Penggunaannya: newffP, T, [S1 S2...SN-l], {TF1 TF2...TFNl}, BTF, BLF, PF, IPF, OPF,
DDF merupakan argument yang diperlukan.
Tabel 3.6 Penjelasan Parameter Argumen yang Diperlukan pada Newff
No Parameter Keterangan
1 P
R x Q1 matrix dari Q1 sample R-element input vectors 2
T SN x Q2 matrix dari Q2 sample SN-element input vectors;
Universitas Sumatera Utara
3 Si Jumlah
dari layer ke i, untuk N-1 layers, default = [
].Ukuran Output layer SN ditentukan dari target vector T.;
4 TFi
Transfer fungsi dari ith layer, defaultnya = tansig untuk hidden layers dan purelin untuk output layer.;
5 BTF Jaringan
Backpropagation fungsi pelatihan, default =
traingdx 6 BLF
Bobotbias fungsi
pembelajaran Backpropagation, default = learngdm
7 PF
Fungsi Performance, jika tidak diisi maka default = mse. IPF
kolom cell array dari input fungsi processing. Default = {fixunknowns,removeconstantrows,mapminmax};
OPF: baris cell array dari keluaran fungsi processing. Default = {removeconstantrows,mapminmax};
DDF Data divison function default = dividerand
Fungsi newff ini menghasilkan output jaringan sebanyak n layer dengan menggunakan pelatihan feed-forward backprop. Pada bab ini digunakan toolbox Neural network, untuk
mengetahui bagaimana kerumitan dalam membuat topologi pada neural network. Serta proses pembelajaran untuk mendapatkan bobot dan bias yang optimal hanya dengan proses yang
sederhana dengan beberapa baris code Matlab saja.
Universitas Sumatera Utara
Gambar 3.7 Arsitektur Multilayer Feedforward dalam mendeteksi adanya Intrusi pada jaringan
komuter
3.3 Pelatihan dan Pembelajaran