13
Kemudian dua unit neuron tersembunyi Z
1
dan Z
2
terhubung langsung dengan lapisan output yang memiliki satu unit neuron Y yang besarnya ditentukan oleh bobot W
1
dan W
2
.
3. Jaringan dengan Lapisan KompetitifCompetitive layer Neural Network
Jaringan ini memiliki bobot yang telah ditentukan dan tidak memiliki proses pelatihan Gambar 2.5. Jaringan ini digunakan untuk mengetahui neuron
pemenang dari sejumlah neuron yang ada. Akibatnya pada jaringan ini sekumpulan neuron bersaing untuk mendapatkan hak manjadi aktif. Nilai bobot
setiap neuron untuk dirinya sendiri adalah 1, sedangkan untuk neuron lainnya bernilai random negative. Contoh JST yang menggunakan jaringan dengan
lapisan kompetitif adalah Learning Vector Quantization dan Kohonen [15].
Gambar 2.5 Jaringan Saraf dengan Competitive layer yang memiliki bobot –n [16]
Pada Gambar 2.5 Lapisan input memiliki empat unit neuron ,yaitu A
1
, A
m
, A
i
, A
j
dimana nilai bobotnya telah ditentukan misalnya n atau –e sedangkan nilai bobot untuk dirinya sendiri bernilai 1.
2.3 Learning Vector Quantization LVQ
LVQ merupakan suatu metode untuk melakukan pelatihan terhadap lapisan-lapisan kompetitif yang terawasi yang memiliki target. Lapisan kompetitif belajar mengenali
dan mengklasifikasikan vektor-vektor masukan. Jika ada dua vektor yang hampir
Universitas Sumatera Utara
14
sama maka lapisan kompetitif akan menempatkan keduanya pada kelas yang sama, dengan kata lain, jaringan LVQ belajar mengklasifikasikan vektor masukan ke kelas
target yang ditentukan oleh user. Arsitektur jaringan LVQ dengan enam neuron pada lapisan masukan dan dua
neuron pada lapisan keluaran, proses yang terjadi pada setiap neuron adalah mencari jarak vektor masukan ke bobot yang bersangkutan W
1
dan W
2
. W
1
adalah vektor bobot yang menghubungkan setiap neuron pada lapisan masukan ke neuron pertama
pada lapisan keluaran, sedangkan W
2
adalah vektor bobot yang menghubungkan setiap neuron pada lapisan masukan ke neuron kedua pada lapisan keluaran. Fungsi aktifasi
F
1
akan memetakan y_in
1
ke y
1
=1 apabila |x- W
1
| |x- W
2
| dan y
1
=0 jika sebaliknya. Demikian juga pada Fungsi aktifasi F
2
akan memetakan y_in
2
ke y
2
=1 apabila |x- W
2
| |x- W
1
| dan y
2
= 0 Jika sebaliknya. Jaringan LVQ terdiri atas dua lapisan, yaitu lapis kompetitif dan lapis linier.
Lapis kompetitif disebut juga Self Organizing Map SOM, disebut lapis kompetitif karena neuron-neuron berkompetisi dengan algoritma kompetisi yang akan
menghasilkan neuron pemenang. Blok ||indist|| menerima vector masukan
p
dan matrk bobot masukan IW
1,1
menghasilkan vektor dengan elemen berjumlah S
1
. Elemen-elemen tersebut
merupakan jarak nilai terkecil antara vektor masukan dan vektor IW
1,1
dan baris
matrik bobot masukan. Masukan n
1
dari lapis kompetitif diperoleh dengan menghitung jarak terkecil vektor
p
dan vektor bobot lalu ditambah dengan bias
b
. Jika semua nilai bias nol masukan jaringan maksimum pada sebuah neuron adalah nol,
terjadi jika vektor
p
sama dengan vektor bobot neuron. Fungsi alih kompetitif menerima vektor masukan dan menghasilkan keluaran
nol kecuali untuk neuron pemenang, yaitu neuron yang memiliki nilai negatif paling kecil menghasilkan keluaran satu. Jika semua bias bernilai nol maka neuron yang
vektor bobotnya paling mendekati vektor masukan mempunyai nilai negatif yang paling kecil dan akan memenangkan kompetisi untuk menghasilkan keluaran satu.
Universitas Sumatera Utara
15
lW
1
,1 lW
2
,1
Competitive Layer Linear Layer
Input
R
P
C
R x 1
n
2
s
2
x 1 s
2
x s
1
s
2
x 1
S
2
x 1
a
1
n
1
S
1
x R
S
1
S
2
a
2
= W
2
a
1
a
1
=compet n
1
s
2
x 1 a
2
Gambar 2.6 Arsitektur jaringan LVQ [6]
Keterangan : W
1
= Vektor bobot yang menghubungkan setiap neuron pada lapisan masukan ke neuron pertama pada lapisan keluaran.
W
2
= Vektor bobot yang menghubungkan setiap neuron pada lapisan masukan ke Neuron kedua pada lapisan kedua.
P = Vektor masukan p menuju competitive layer. S
1
= Vektor yang dihasilkan dari vektor masukan p dan bobot masukan W
1
,
1
. S
2
= Vektor yang dihasilkan dari vektor masukan a
1
dan bobot masukan W
2
,
1
. a
1
= Hasil dari vektor masukan competitive layer ke linear layer. a
2
= Vektor yang dihasilkan dari linear layer. R = Vektor masukan
C = Kelas yang diwakili oleh oleh neuron ke-j. T = Vektor target output
T =t
1
, t
2
, …, t
k
α = Learning rate epoh = Siklus perubahan bobot dari jumlah inputannya
2.3.1 Algoritma Pelatihan LVQ
Algoritma ini akan mengubah bobot I neuron yang paling dekat dengan vektor masukan, misalnya vektor masukan X=x
1
,x
2
,x
3
. Vektor bobot keluaran neuron ke-j
Universitas Sumatera Utara
16
adalah W
j
= W
1
,W
2
,..,W
n
, C
j
adalah kelas yang diwakili oleh Neuron ke-j. T adalah kelas target untuk masukan X sedangkan J adalah jarak antara vektor masukan dan
vektor bobot. Blok ||indist|| menerima vektor masukan
p
dan matrik bobot masukan
IW
1,1
menghasilkan vektor dengan elemen berjumlah S
1
Perubahan bobot-bobot neuron dilakukan dengan langkah-langkah berikut : 1. Tetapkan :
a. Bobot awal variabel input ke-j menuju ke kelas cluster ke-I : W
ij
, dengan i=1,2,..,m.
b. Maksimum epoh : MaxEpoh c. Parameter learning rate
α d. Pengurangan learning rate Dec
α e. Minimal learning rate yang diberbolehkan : Min
α 2. Masukkan :
a. Data input : X
ij ;
dengan i=1,2,..,m. b. Target berupa kelas: T
k
; dengan k=1,2,..,n.
3. Tetapkan kondisi awal : epoh = 0;
4. Kerjakan jika : epoh ≤ MaxEpoh dan α ≥ Minα
a. epoh = epoh + 1; …………………………………………………….. 2-2 b. Kerjakan untuk i=1 sampai n
i. Tentukan J sedemikian hingga |X
i
-W
j
| minimum ……………….. 2-3 dengan j=1,2,..K.
ii. Perbaiki Wj dengan ketentuan : o
Jika T = C
j
maka W
j
= W
j
+ αX
i
-W
j
…………………………………….. 2-4 o
Jika T ≠ C
j
maka W
j
= W
j
- αX
i
-W
j
……………………………………... 2-5
c. Kurangi nilai α,
Universitas Sumatera Utara
17
pengurangan α bisa dilakukan dengan: α= α-Decα;
atau dengan cara: α= αDec α …………………………………. 2-6
Setelah dilakukan pelatihan, akan diperoleh bobot-bobot akhirW. Bobot- bobot ini nantinya akan digunakan untuk melakukan simulasi atau pengujian
np buah data.
2.3.2 Algoritma Simulasi Pengujian
1. Masukkan data yang akan diuji, misal: X
ij
dengan i=1,2,..np dan j=1,2,..m. 2. Kerjakan untuk i=1 sampai np
a. Tentukan J sedemikian hingga |X
i
-W
j
| minimum …………….. 2-7 dengan j=1,2,..K.
b. J adalah kelas untuk X
i
[4].
2.4 Backpropagation