Prediksi Menggunakan Weighted Evolving Fuzzy Neural Network

A2 = hasil prediksi f. Menghitung nilai error | | 2.13 g. Jika nilai error lebih kecil dari nilai error threshold errthr maka menuju langkah h, jika tidak maka melukan perubahan terhadap nilai rule node r, bobot satu W1, dan W2 lalu ulangi dari langkah a. r = r +1 2.14 W1 r = inpF i ; W2 r = target i 2.15 h. Mengubah nilai bobot satu W1 dan bobot dua W2 2.16 2.17 2.18 i = i + 1 2.19

2.6. Prediksi Menggunakan Weighted Evolving Fuzzy Neural Network

Fuzzy Neural Network FuNN adalah struktur terhubung yang mengimplementasikan aturan-aturan fuzzy inference system. FuNN merepresentasikan sebuah kelas dari struktur tersebut. Model WEFuNN memiliki prinsip yang berbeda dengan FuNN walaupun memiliki struktur yang mirip. WEFuNN dikembangkan berdasarkan prinsip-prinsip ECOS Kasabov, 2007. Universitas Sumatera Utara 2.6.1. Arsitektur Weighted Evolving Fuzzy Neural Network WEFuNN memiliki lima struktur layer seperti yang ditunjukkan pada Gambar 2.9. Pada arsitektur WEFuNN node dan koneksinya dibentuk atau dikoneksikan sesuai dengan data sample yang ada. Sebuah layer opsional short-term memory dapat digunakan melalui sebuah kondisi feedback dari aturan-aturan node pada layer seperti ditunjukkan oleh Gambar 2.10. Layer feedback yang terkoneksi dapat digunakan jika relasi temporal input data dapat dikenali secara struktural Kasabov, 2007. Gambar 2.9 Arsitektur Standar WEFuNN Sumber : Kasabov, 2007 Gambar 2.10. Arsitektur WEFuNN dengan Short-Term Memory Sumber : Kasabov, 2007 Layer pertama merupakan layer input variabel yang akan dimasukkan oleh variabel yang akan digunakan dalam proses training. Universitas Sumatera Utara Layer kedua merepresentasikan persamaan fuzzy dari masing-masing bagian. Sebagai contoh, dua buah input fuzzy pada jaringanneuron merepresentasikan “kecil” dan “besar” untuk sebuah input variabel umum. Fungsi keanggotaan fuzzy dapat ditambahkan untuk mendapatkan derajat keanggotaan setiap data input. Jumlah dan jenis fungsi keanggotaan tersebut dapat secara dinamis dimodifikasi. Pada layer ketiga berisi aturan-aturan case yang dikembangkan melalui pembelajaran terawasi atau metode pembelajaran tidak terawasi. Aturan prototype sample-sample dari input –output kumpulan data yang dapat dipresentasikan secara grafik sebagai hyper-spheres titik puncak pada grafik geometrilengkungan kurva fungsi keanggotaan dari sphares bidang lengkungan grafik input fuzzy dan output fuzzy. Setiap aturan r didefenisikan dengan 2 vektor dari koneksi bobot – W1r dan W2r, aturan yang paling akhir disesuaikan melalui pembelajaran terawasi berdasarkan error output, dan aturan awal disesuaikan melalui pembelajaran tidak terawasi berdasarkan kemiripan pengukuran di dalam suatu area masalah. Suatu fungsi aktivasi linier, atau suatu gaussian function, digunakan pada neuronjaringan pada layer ini. Pada layer keempat dilakukan kuantisasi variabel fuzzy output. Kuantisasi adalah operasi pemotongan truncation atau pembulatan rounding nilai data dengan suatu presisi precision tertentu untuk mendapatkan nilai luas kurva. Pada layer ini masukan bobot fungsi penjumlahan dan sebuah fungsi aktivasi linier penuhjenuh digunakan pada reuronjaringan untuk menghitung derajat keanggotaan yang mana vektor output yang terhubung dengan input vektor yang diberikan masing-masing fungsi keanggotaan output. Layer kelima merepresentasikan dari nilai dari variabel output. Di layer ini sebuah fungsi aktivasi linier digunakan untuk menghitung nilai defuzzifikasi variabel output. Universitas Sumatera Utara 2.6.2. Parameter Weighted Evolving Fuzzy Neural Network Weighted evolving fuzzy neural network memiliki beberapa parameter di dalam algoritmanya. Paramater-parameter tersebut digunakan sebagai batas kesalahan dalam melakukan pembelajaran, batas minimum dari sebuah fungsi aktivasi, dan kontrol ukuran pada sebuah bobot. Parameter yang digunakan pada weighted evolving fuzzy neural network adalah sebagai berikut Kasabov, 2001. 1. Sensitive threshold sThr adalah parameter yang digunakan untuk medefinisikan nilai minumum aktivasi. Nilai sensitive threshold harus lebih besar dari 0 dan lebih kecil sama dengan 0,9. Apabila nilai dari sensitive threshold lebih besar dari 0,9 maka fungsi aktivasi akan menjadi chaotic dimana pola data akan semakin acak dan sulit atau tidak bisa diprediksi Gleick, 1987. 2. Error threshold errThr adalah suatu nilai yang sangat kecil sebagai batas kesalahan yang ditoleransi dalam proses pembelajaran. 3. Learning rate 1 lr1 dan learning rate 2 lr2 adalah parameter yang digunakan untuk mengontrol nilai bobot antara layer kedua dengan layer ketiga dan antara layer ketiga dengan layer keempat. Nilai parameter learning rate maksimum bernilai 1 dan tidak boleh bernilai lebih kecil sama dengan 0 Liu, et. al, 2006.

2.7. Penelitian Sebelumnya