Jaringan Feedforward Analisis Dan Peracangan Aplikasi Sistem Pendeteksi Gangguan Jaringan Komputer Menggunakan Multilayer Dengan Pelatihan Feedforward

data = data_norm1:nrow,:; ----------input data normalisasi ----------------------- nrow_train=200; nrow_test=nrow-nrow_train; Ptrain = data1:nrow_train,1:sizedata,2-1; Ttrain = data1:nrow_train,sizedata,2; Ptest = datanrow_train+1:nrow_train+nrow_test,1:sizedata,2-1; Ttest = datanrow_train+1:nrow_train+nrow_test,sizedata,2; ----------END OF INPUT DATA PREPARATION-------------------- Data dibagi dua, data pelatihan dan data untuk pengujian. Berikut ini fungsi normalisasi: function data_norm= normalisasidata for i=1:5 maxri=maxdata:,i; minri=mindata:,i; deltai = maxri-minri; data_norm:,i = 2data:,i-minrideltai-1; end end rumus perhitungan normalisasi sederhana, dengan batasan nilai antara -1 dan 1: data = 2data-minmax – min-1 Oleh karena itu aktivasi yang cocok dan sesuai untuk topologi jaringan ini adalah sigmoid bipolar. Karena sigmoid bipolar melewatkan nilai antara -1 dan 1. Aktivasi ini seragam untuk semua lapisan.

3.2 Jaringan Feedforward

Universitas Sumatera Utara Topologi jaringan yang digunakan pada penulisan ini adalah jaringan tipe Feedforward atau alur maju, karena jaringan lapis tunggal ini terdiri dari S logsig neurons yang memiliki R input seperti di perlihatkan pada gambar kiri dan dengan diagram lapis pada gambar sebelah kanannya. Gambar 3.3a Jaringan Tunggal dari Gambar 3.3b Diagram Lapis S logsing S Logsing Neuron Jaringan Feedforward bias memiliki satu atau lebih lapisan tersembunyi dari sigmoid neurons yang diikuti oleh output layer dari linear neurons. Lapisan ganda dari neuron dengan fungsi transfer tidak linear membolehkan jaringan untuk mempelajari hubungan nonlinear dan linear antara input dan output vectors. Linear output layer mengijinkan jaringan untuk menghasilkan nilai diluar antara -1 dan +1. Di sisi lain, jika ingin membatasi output jaringan seperti misalnya hanya nilai antara 0 dan 1, termasuk nilai pecahan 0.1; 0.25 dan seterusnya, maka fungsi transfer akan menggunakan sigmoid transfer function seperti misalnya logsig . Pada skripsi ini output di set antara -1 dan 1. Untuk multilayer network, jumlah lapisan layer menentukan jumlah matrik bobot. The appropriate notation is used in the two-layer tansig purelin network shown next. Universitas Sumatera Utara Gambar 3.4 Jaringan feedforward

3.2.1 Membangun Suatu Jaringan Alur Maju Feedforward newff

Langkah pertama pada pembelajaran suatu jaringan alur maju adalah membuat obyek jaringan. Fungsi newff merupakan suatu objek jaringan alur maju. Fungsi Newff memerlukan tiga arguments. Argument pertama adalah R-element input vectors, argument kedua adalah S- element target vectors dan argumen ke tiga adalah sebuah array yang berisi ukuran atau nilai di tiap hidden layer. Argument lain bisa di tambah sesuai dengan pilihan misalnya argument ke empat adalah setting untuk nama dari transfer functions yang digunakan pada tiap lapisan. Argument ke lima berisi nama pilihan training function yang dipakai. Jika hanya diisi tiga argument saja maka default transfer function untuk hidden layer secara otomatis akan di set ke tansig dan default untuk output layer sebagai purelin . Sedangkan default training function adalah dapat benilai trainlm . Tabel 3.5 Argumen untuk Tiap Lapisan Default Nilai Transfer function Hidden layer Tansig Transfer function output layer Purelin Universitas Sumatera Utara Training function Trainlm Pada penulisan ini layer fungsi transfer tansig merupakan fungsi transfer yang digunakan untuk lapisan output. Pada langkah pertama hidden layer dibuat hanya satu, dengan 4 buah Neuron. Fungsi transfer default pada lapisan tersembunyi adalah tan-sigmoid, dan digunakan untuk lapisan output linier. jumlah hidden layers hidden_layers =4; create struktur jaringan objek net = newffPtrain,Ttrain,hidden_layers; Di mana net = newffP,T,[S1 S2...SN-l],{TF1 TF2...TFNl}, BTF,BLF,PF,IPF,OPF,DDF Penggunaannya: newffP, T, [S1 S2...SN-l], {TF1 TF2...TFNl}, BTF, BLF, PF, IPF, OPF, DDF merupakan argument yang diperlukan. Tabel 3.6 Penjelasan Parameter Argumen yang Diperlukan pada Newff No Parameter Keterangan 1 P R x Q1 matrix dari Q1 sample R-element input vectors 2 T SN x Q2 matrix dari Q2 sample SN-element input vectors; Universitas Sumatera Utara 3 Si Jumlah dari layer ke i, untuk N-1 layers, default = [ ].Ukuran Output layer SN ditentukan dari target vector T.; 4 TFi Transfer fungsi dari ith layer, defaultnya = tansig untuk hidden layers dan purelin untuk output layer.; 5 BTF Jaringan Backpropagation fungsi pelatihan, default = traingdx 6 BLF Bobotbias fungsi pembelajaran Backpropagation, default = learngdm 7 PF Fungsi Performance, jika tidak diisi maka default = mse. IPF kolom cell array dari input fungsi processing. Default = {fixunknowns,removeconstantrows,mapminmax}; OPF: baris cell array dari keluaran fungsi processing. Default = {removeconstantrows,mapminmax}; DDF Data divison function default = dividerand Fungsi newff ini menghasilkan output jaringan sebanyak n layer dengan menggunakan pelatihan feed-forward backprop. Pada bab ini digunakan toolbox Neural network, untuk mengetahui bagaimana kerumitan dalam membuat topologi pada neural network. Serta proses pembelajaran untuk mendapatkan bobot dan bias yang optimal hanya dengan proses yang sederhana dengan beberapa baris code Matlab saja. Universitas Sumatera Utara Gambar 3.7 Arsitektur Multilayer Feedforward dalam mendeteksi adanya Intrusi pada jaringan komuter

3.3 Pelatihan dan Pembelajaran