Learning Vector Quantization LVQ

13 Kemudian dua unit neuron tersembunyi Z 1 dan Z 2 terhubung langsung dengan lapisan output yang memiliki satu unit neuron Y yang besarnya ditentukan oleh bobot W 1 dan W 2 .

3. Jaringan dengan Lapisan KompetitifCompetitive layer Neural Network

Jaringan ini memiliki bobot yang telah ditentukan dan tidak memiliki proses pelatihan Gambar 2.5. Jaringan ini digunakan untuk mengetahui neuron pemenang dari sejumlah neuron yang ada. Akibatnya pada jaringan ini sekumpulan neuron bersaing untuk mendapatkan hak manjadi aktif. Nilai bobot setiap neuron untuk dirinya sendiri adalah 1, sedangkan untuk neuron lainnya bernilai random negative. Contoh JST yang menggunakan jaringan dengan lapisan kompetitif adalah Learning Vector Quantization dan Kohonen [15]. Gambar 2.5 Jaringan Saraf dengan Competitive layer yang memiliki bobot –n [16] Pada Gambar 2.5 Lapisan input memiliki empat unit neuron ,yaitu A 1 , A m , A i , A j dimana nilai bobotnya telah ditentukan misalnya n atau –e sedangkan nilai bobot untuk dirinya sendiri bernilai 1.

2.3 Learning Vector Quantization LVQ

LVQ merupakan suatu metode untuk melakukan pelatihan terhadap lapisan-lapisan kompetitif yang terawasi yang memiliki target. Lapisan kompetitif belajar mengenali dan mengklasifikasikan vektor-vektor masukan. Jika ada dua vektor yang hampir Universitas Sumatera Utara 14 sama maka lapisan kompetitif akan menempatkan keduanya pada kelas yang sama, dengan kata lain, jaringan LVQ belajar mengklasifikasikan vektor masukan ke kelas target yang ditentukan oleh user. Arsitektur jaringan LVQ dengan enam neuron pada lapisan masukan dan dua neuron pada lapisan keluaran, proses yang terjadi pada setiap neuron adalah mencari jarak vektor masukan ke bobot yang bersangkutan W 1 dan W 2 . W 1 adalah vektor bobot yang menghubungkan setiap neuron pada lapisan masukan ke neuron pertama pada lapisan keluaran, sedangkan W 2 adalah vektor bobot yang menghubungkan setiap neuron pada lapisan masukan ke neuron kedua pada lapisan keluaran. Fungsi aktifasi F 1 akan memetakan y_in 1 ke y 1 =1 apabila |x- W 1 | |x- W 2 | dan y 1 =0 jika sebaliknya. Demikian juga pada Fungsi aktifasi F 2 akan memetakan y_in 2 ke y 2 =1 apabila |x- W 2 | |x- W 1 | dan y 2 = 0 Jika sebaliknya. Jaringan LVQ terdiri atas dua lapisan, yaitu lapis kompetitif dan lapis linier. Lapis kompetitif disebut juga Self Organizing Map SOM, disebut lapis kompetitif karena neuron-neuron berkompetisi dengan algoritma kompetisi yang akan menghasilkan neuron pemenang. Blok ||indist|| menerima vector masukan p dan matrk bobot masukan IW 1,1 menghasilkan vektor dengan elemen berjumlah S 1 . Elemen-elemen tersebut merupakan jarak nilai terkecil antara vektor masukan dan vektor IW 1,1 dan baris matrik bobot masukan. Masukan n 1 dari lapis kompetitif diperoleh dengan menghitung jarak terkecil vektor p dan vektor bobot lalu ditambah dengan bias b . Jika semua nilai bias nol masukan jaringan maksimum pada sebuah neuron adalah nol, terjadi jika vektor p sama dengan vektor bobot neuron. Fungsi alih kompetitif menerima vektor masukan dan menghasilkan keluaran nol kecuali untuk neuron pemenang, yaitu neuron yang memiliki nilai negatif paling kecil menghasilkan keluaran satu. Jika semua bias bernilai nol maka neuron yang vektor bobotnya paling mendekati vektor masukan mempunyai nilai negatif yang paling kecil dan akan memenangkan kompetisi untuk menghasilkan keluaran satu. Universitas Sumatera Utara 15 lW 1 ,1 lW 2 ,1 Competitive Layer Linear Layer Input R P C R x 1 n 2 s 2 x 1 s 2 x s 1 s 2 x 1 S 2 x 1 a 1 n 1 S 1 x R S 1 S 2 a 2 = W 2 a 1 a 1 =compet n 1 s 2 x 1 a 2 Gambar 2.6 Arsitektur jaringan LVQ [6] Keterangan : W 1 = Vektor bobot yang menghubungkan setiap neuron pada lapisan masukan ke neuron pertama pada lapisan keluaran. W 2 = Vektor bobot yang menghubungkan setiap neuron pada lapisan masukan ke Neuron kedua pada lapisan kedua. P = Vektor masukan p menuju competitive layer. S 1 = Vektor yang dihasilkan dari vektor masukan p dan bobot masukan W 1 , 1 . S 2 = Vektor yang dihasilkan dari vektor masukan a 1 dan bobot masukan W 2 , 1 . a 1 = Hasil dari vektor masukan competitive layer ke linear layer. a 2 = Vektor yang dihasilkan dari linear layer. R = Vektor masukan C = Kelas yang diwakili oleh oleh neuron ke-j. T = Vektor target output T =t 1 , t 2 , …, t k α = Learning rate epoh = Siklus perubahan bobot dari jumlah inputannya

2.3.1 Algoritma Pelatihan LVQ

Algoritma ini akan mengubah bobot I neuron yang paling dekat dengan vektor masukan, misalnya vektor masukan X=x 1 ,x 2 ,x 3 . Vektor bobot keluaran neuron ke-j Universitas Sumatera Utara 16 adalah W j = W 1 ,W 2 ,..,W n , C j adalah kelas yang diwakili oleh Neuron ke-j. T adalah kelas target untuk masukan X sedangkan J adalah jarak antara vektor masukan dan vektor bobot. Blok ||indist|| menerima vektor masukan p dan matrik bobot masukan IW 1,1 menghasilkan vektor dengan elemen berjumlah S 1 Perubahan bobot-bobot neuron dilakukan dengan langkah-langkah berikut : 1. Tetapkan : a. Bobot awal variabel input ke-j menuju ke kelas cluster ke-I : W ij , dengan i=1,2,..,m. b. Maksimum epoh : MaxEpoh c. Parameter learning rate α d. Pengurangan learning rate Dec α e. Minimal learning rate yang diberbolehkan : Min α 2. Masukkan : a. Data input : X ij ; dengan i=1,2,..,m. b. Target berupa kelas: T k ; dengan k=1,2,..,n. 3. Tetapkan kondisi awal : epoh = 0; 4. Kerjakan jika : epoh ≤ MaxEpoh dan α ≥ Minα a. epoh = epoh + 1; …………………………………………………….. 2-2 b. Kerjakan untuk i=1 sampai n i. Tentukan J sedemikian hingga |X i -W j | minimum ……………….. 2-3 dengan j=1,2,..K. ii. Perbaiki Wj dengan ketentuan : o Jika T = C j maka W j = W j + αX i -W j …………………………………….. 2-4 o Jika T ≠ C j maka W j = W j - αX i -W j ……………………………………... 2-5 c. Kurangi nilai α, Universitas Sumatera Utara 17 pengurangan α bisa dilakukan dengan: α= α-Decα; atau dengan cara: α= αDec α …………………………………. 2-6 Setelah dilakukan pelatihan, akan diperoleh bobot-bobot akhirW. Bobot- bobot ini nantinya akan digunakan untuk melakukan simulasi atau pengujian np buah data.

2.3.2 Algoritma Simulasi Pengujian

1. Masukkan data yang akan diuji, misal: X ij dengan i=1,2,..np dan j=1,2,..m. 2. Kerjakan untuk i=1 sampai np a. Tentukan J sedemikian hingga |X i -W j | minimum …………….. 2-7 dengan j=1,2,..K. b. J adalah kelas untuk X i [4].

2.4 Backpropagation