Evolving Fuzzy Neural Network

namun harus dikonversikan terlebih dahulu, lalu lakukan penalaran berdasarkan rule base dan mengkonversi hasilnya menjadi output. Dalam fuzzy inference system terdapat 4 elemen dasar yaitu : 1. Basis Kaidah Rule Base, yang berisi aturan-aturan secara linguistik yang bersumber dari para pakar atau narasumber. 2. Mekanisme Pengambilan Keputusan Inference Engine, merupakan bagian yang menerapkan proses bagaimana seorang pakar mengambil suatu keputusan dengan menerapkan pengetahuan yang dimiliki Knowledge. 3. Fuzzifikasi Fuzzification, proses mengubah besaran tegas crisp ke besaran fuzzy. 4. Defuzzifikasi Defuzzification, proses yang mengubah besaran fuzzy yang telah diproses oleh inference engine, menjadi besaran crisp.

2.4 Evolving Fuzzy Neural Network

Evolving fuzzy neural network EFuNN merupakan struktur dari fuzzy neural network FuNN yang berevolusi berdasarkan prinsip evolving connectionist system ECoS Kasabov, 2007. EFuNN merupakan fuzzy neural network yang dikembangkan dan dimodifikasi dimana salah satunya modifikasinya yaitu mengubah struktur koneksionis yang tetap menjadi struktur fluktuasi yang dapat berkembang berdasarkan masukan node dan menyusut saat terjadi pengumpulan atau pemangkasan node Kong, 2007. Seluruh node dalam efunn terbentuk dalam proses training. Node-node tersebut merepresentasikan fungsi keanggotaan fuzzy label neurons yang dapat dimodifikasi dalam proses training. Setiap variabel input direpresentasikan oleh sebuah grup neuron yang tersusun secara spasial untuk merepresentasikan domain area fuzzy yang berbeda dari variabel tersebut. 2.4.1 Arsitektur Evolving Fuzzy Neural Network EFuNN terdiri dari 5 layer network yang bergerak maju Feed Forward, dimana pada setiap layer memiliki fungsi yang spesifik Watts, 2012 seperti yang ditunjukkan pada gambar 2.10. Kelima layer tersebut yaitu input layer, condition layer, rule layer, action layer dan output layer. EFuNN memiliki struktur dengan 5 layer dimana node dan koneksi yang terbentuk atau terhubung sebagai data contoh yang dipresentasikan. Pada EFuNN terdapat sebuah layer memori sementara short-term memory yang Universitas Sumatera Utara digunakan melalui sebuah koneksi feedback dari rule node layer. Layer dari koneksi feedback tersebut dapat digunakan apabila relasi sementara diantara input-input data dapat tersimpan secara structural Kasabov, 2001. Arsitektur EFuNN dengan short- term memory dapat dilihat pada gambar 2.11. Gambar 2.10 Arsitektur Evolving Fuzzy Neural Network Arun, 2013 Universitas Sumatera Utara Gambar 2.11 Arsitektur EFuNN dengan Short-Term Memory Kasabov, 2001 Layer pertama merupakan layer input dari seluruh variabel data yang akan digunakan dalam proses X 1, X 2 , ….. , X n . Layer kedua merupakan layer fuzzy input yang merepresentasikan persamaan fuzzy dari masing masing bagian input. Setiap input variabel direpresentasikan disini oleh grup neuron yang tersusun secara spasial untuk merepresentasikan area domain fuzzy yang berbeda dari variabel tersebut. Contohnya 2 input fuzzy pada jaringan atau dalam bentuk neuron merepresentasikan “kecil” dan “besar” dalam sebuah input variabel umum. Fungsi keanggotaan yang berbeda dapat digunakan pada neuron tersebut seperti triangular, trapezoida, Gaussian dan lain-lain. Layer ketiga merupakan layer rule base dimana neuron dalam EFuNN berevolusi melalui proses pembelajaran hibrida yang terawasi ataupun tidak terawasi. Setiap rule node r didefinisikan dalam 2 vektor koneksi yaitu W 1 r dan W 2 r. Aturan yang paling akhir disesuaikan dengan pembelajaran yang terawasi berdasarkan output error dan aturan awal disesuaikan melalui pembelajaran tidak terawasi berdasarkan kesamaan pengukuran dalam area input. Setiap rule node merepresentasikan sebuah hubungan antara hyper-sphere lengkungan kurva pada fungsi keanggotaan pada area input dengan hyper-sphere pada area output, dimana bobot koneksi W 1 r Universitas Sumatera Utara merepresentasikan koordinat nilai tengah dari sphere dalam area fuzzy input, sedangkan bobot koneksi W 2 r merepresentasikan koordinat nilai tengah dari sphere pada area fuzzy output. Layer keempat merupakan layer fuzzy output, layer ini merepresentasikan kuantisasi dari fuzzy untuk variabel output, dimana terdapat kemiripan dengan representasi fuzzy input neuron. Kuantisasi yang dimaksud adalah operasi pemotongan truncation, atau pembulatan rounding dari nilai data dengan suatu presisi precision tertentu untuk mendapatkan nilai kurva Sani, 2013. Layer kelima merupakan layer output, layer ini merepresentasikan nilai sebenarnya dari variabel output. Pada layer ini terdapat fungsi aktivasi linier yang digunakan dalam menghitung nilai pada defuzzifikasi variabel output. 2.4.2 Parameter Pada Evolving Fuzzy Neural Network Dalam Evolving Fuzzy Neural Network, terdapat parameter yang digunakan sebagai batas minimum dari suatu fungsi aktivasi Sensitive Threshold, batasan kesalahan dalam pembelajaran Error Threshold, serta kontrol ukuran dalam bobot Learning Rate. Parameter yang digunakan dalam evolving fuzzy neural network Kasabov, 2001 yaitu : 1. Sensitive Threshold sThr merupakan parameter yang digunakan dalam menentukan nilai minimum aktivasi. Range nilai dari Sensitive Threshold yaitu lebih besar dari 0 dan lebih kecil sama dengan 1. 2. Error Threshold errThr merupakan batasan yang ditoleransi dalam proses pembelajaran. Nilai error threshold sangat kecil dan biasa digunakan dalam range lebih besar dari 0 dan lebih kecil sama dengan 1. 3. Learning Rate 1 lr1 merupakan parameter yang digunakan dalam mengontrol bobot W 1 antara layer kedua dengan layer ketiga dengan range nilai lebih besar dari 0 dan lebih kecil sama dengan 1. 4. Learning Rate 2 lr2 merupakan parameter yang digunakan dalam mengontrol bobot W 2 antara layer ketiga dengan layer keempat dengan range nilai lebih besar dari 0 dan lebih kecil sama dengan 1. Universitas Sumatera Utara 2.4.3 Algoritma Evolving Fuzzy Neural Network Berikut ini merupakan langkah – langkah dari evolving fuzzy neural network dalam melakukan prediksi data time series Kasabov, 2007 : 1. Menentukan nilai parameter pada EFuNN yaitu sensitive thresholdsThr, error threshold errThr, learning rate 1 lr1 dan learning rate 2 lr2. 2. Melakukan fuzzifikasi terhadap data input dengan fungsi keanggotaan membership function. xF i = fuzzy x i i = 1 …. N 2.5 Keterangan : i = indeks data x i = data ke i N = Jumlah data xF i = hasil fuzzifikasi data ke i fuzzy = fungsi keanggotaan membership function 3. Membuat rule node pertama r = 1 untuk merepresentasikan data yang pertama dan mengisi nilai pada bobot satu W 1 dan bobot dua W 2 . r = 1; W 1 = xF i ; W 2 = target 2.6 Keterangan : r = rule node W 1 = nilai bobot dari koneksi antara layer 2 dan layer 3 W 2 = nilai bobot dari koneksi antara layer 3 dan layer 4 Target = fuzzy output vector 4. Lakukan pengulangan selama data masih ada i = N 1. Menghitung normalized fuzzy local distance D diantara input terbaru fuzzy input vector dengan fuzzy input vector yang berada dalam penyimpanan sementara short-term memory pada saat rule node r j , j = 1 …. R, dimana R adalah nilai rule node pada saat ini. DxF i ,r j = ∑ ∑ 2.7 2. Menghitung nilai aktivasi A1r j dari rule node r j dengan fungsi radial basis radbas. Universitas Sumatera Utara Radbas n = e -2 2.8 A1r j = radbas DxF i ,r j 2.9 3. Cari rule node r j dengan nilai aktivasi tertinggi max A1r j . 4. Jika nilai max A1r j lebih besar dari sThr maka menuju ke langkah e. Jika nilai max A1r j lebih kecil dari sThr maka lakukan persamaan berikut : i = i + 1 2.10 W1 j = xF i ; W2 j = target i 2.11 5. Melakukan propagasi ke fuzzy output terhadap nilai aktivasi dari rule node r j A2 = A1r j . W2r j 2.12 6. Menghitung fuzzy output error Err = | A2 – target i | 2.13 7. Cari action node k dari nilai aktivasi tertinggi A2. 8. Jika Error k lebih kecil dari ErrThr atau r sama dengan i maka menuju ke langkah i. Jika Error k lebih besar dari ErrThr atau r tidak sama dengan i maka lakukan persamaan berikut : i = i + 1 2.14 W1 j = xF i ; W2 j = target i 2.15 Ulangi langkah a. 9. Update bobot W1 dan W2 dengan persamaan Dis = xF i – W1k 2.16 W1k = W1k + lr1 . Dis 2.17 W2k = W2k + lr2 . Err 2.18 i = i + 1

2.5 Penelitian Terdahulu