Algoritma Learning Vector Quantization LVQ

2.5 Algoritma Learning Vector Quantization LVQ

LVQ merupakan metode klasifikasi data adaptif berdasarkan pada data pelatihan dengan informasi kelas yang diinginkan. Walaupun merupakan suatu metoda pelatihan supervised tetapi LVQ menggunakan teknik data clustering unsupervised untuk pra proses set data dan penentuan cluster center-nya. Arsitektur jaringan LVQ hampir menyerupai suatu jaringan pelatihan kompetitif kecuali pada masing-masing unit outputnya yang dihubungkan dengan suatu kelas tertentu. Kusumadewi dan Hartai 2006 menyatakan LVQ merupakan metoda untuk melakukan pelatihan terhadap lapisan-lapisan kompetitif supervised. Lapisan kompetitif akan belajar secara otomatis untuk melakukan klasifikasi terhadap vektor input yang diberikan. Apabila beberapa vektor input memiliki jarak yang sangat berdekatan, maka vektor-vektor input tersebut akan dikelompokkan dalam kelas yang sama. Pemrosesan yang terjadi pada setiap neuron adalah mencari jarak antara suatu vektor input ke bobot yang bersangkutan W 1 dan W 2 . W 1 adalah vektor bobot yang menghubungkan setiap neuron pada lapisan input ke neuron pertama pada lapisan output, sedangkan W 2 adalah vektor bobot yang menghubungkan setiap neuron pada lapisan input ke neuron yang kedua pada lapisan output. Fungsi aktivasi F 1 akan memetakan Y_in 1 ke y1 = 1 apabila: |X – W 1 | |X – W 2 |, dan Y 1 = 0 jika sebaliknya. Demikian pula dengan yang terjadi pada fungsi aktivasi F 2 , akan memetakan Y_in 1 ke Y 1 = 1 apabila |X – W 2 | |X – W 1 |, dan Y 1 = 0 jika sebaliknya. Gambar 2.6 menunjukan jaringan LVQ dengan unit pada lapisan input, dan 2 unit neuron pada lapisan output. Gambar 2.6 Arsitektur Jaringan Learning Vector Quantization Kusumadewi,2006 X 1 X 2 X 3 X 4 X 5 X 6 X-W 1 X-W 2 F 1 F 2 Y_in Y_in Y 1 Y 2 Universitas Sumatera Utara Algoritma untuk LVQ adalah sebagai berikut: Notasi x : training vector X1, X2, ..., Xn T : kategori dari training vector yang benar W j : Vektor bobot untuk kategori j C j : Kategori j hasil training ||X – Wj|| : jarak Euclidian. Step 0 Inisialisasi Step 1 Jika kondisi stop salah, lakukan step 2 s.d. step 6 Step 2 Untuk setiap vector training, lakukan step 3 s.d. step 4 Step 3 dapatkan j sehingga ||X – Wj|| minimum Step 4 Update Wj Wjbaru = Wjlama + α X – Wjlama ; Jika T = Ci Wjbaru = Wjlama – α X – Wjlama ; Jika T ≠ Ci Step 5 Update Learning rate Step 6 Uji kondisi stop Setelah dilakukan pelatihan, akan diperoleh bobot akhir W. Bobot-bobot ini nantinya akan digunakan untuk melakukan simulasi atau pengujian data yang lain.

2.6 Algoritma Backpropagation