Pengambilan keputusan, dilakukan berdasarkan nilai tertinggi yang mendekati nilai fungsi kepekatan peluang f
i
x dari vektor x untuk dapat masuk
dalam kelas tertentu θ
i
, argmax{ h
n
.l
n
.f
n
x}, dimana n = 1, …,K, Specht 1992, Zaknich 1995.
2.12 Jaringan Syaraf Tiruan Probabilistik
Jaringan syaraf tiruan probabilistik atau probabilistic neural networs PNN, diperkenalkan oleh D.F Specht pada tahun 1988, sebagai jaringan syaraf tiruan
dengan 3 lapisan tesembunyi setelah lapisan masukkan input layer, yaitu: lapisan pola pattern layer, lapisan penjumlahan summation layer, lapisan
keluaran output layer, dan bersifat feed-forward, dieksekusi dengan satu kali proses one pass Specht 1990.
Kelebihan algoritma PNN, adalah kemudahan yang diberikan untuk modifikasi jaringan, ketika dilakukan penambahan atau pengurang data pelatihan
yang digunakan. Kelemahan algoritma PNN, adalah terjadinya peningkatan penggunaan ruang memori komputer, dan waktu komputasi, ketika penggunaan
data pelatihan bertambah besar, karena semua data pelatihan harus dimasukkan ke dalam algoritma PNN Bolat et al. 2003, Zaknich 1995.
Kerja PNN, didasarkan pada penghitungan nilai fungsi kepekatan peluang f
i
x untuk setiap data vektor. Fungsi f
i
x merupakan fungsi pengambilan keputusan Bayes g
i
x, untuk data vektor x dan x
ij
yang telah dinormalisasi. Persamaan fungsi f
i
x atau g
i
x, tuliskan sebagai berikut, Specht 1992, Zaknich 1995.
∑
= Τ
⎥ ⎥
⎦ ⎤
⎢ ⎢
⎣ ⎡
⎟ ⎟
⎠ ⎞
⎜ ⎜
⎝ ⎛
− ⋅
− −
= =
i
M j
ij ij
i i
i
. x
x x
x exp
M x
g x
f
1 2
2
2 2
1
σ σ
π
ρ ρ
27
dengan i = 1, 2, …., K. dimana:
T Transpose i Jumlah
kelas j Jumlah
pola x
ij
Vektor pelatihan ke j dari kelas i x Vektor
pengujian M
i
Jumlah vektor pelatihan dari kelas i ρ
Dimensi vektor x σ
Faktor penghalus, standar deviasi
Sampel data untuk data pelatihan tidak sama dengan sampel data untuk data pengujian PNN. Blok diagram arsitektur PNN, disajikan pada Gambar 7. Posisi
node – node yang dialokasikan dalam PNN setelah lapisan input, adalah:
1 Node lapisan Pola Pattern Layer, digunakan 1 node pola untuk setiap data
pelatihan yang digunakan. Setiap node pola, merupakan perkalian titik dot
product dari vektor masukkan x yang akan diklasifikasikan, dengan vektor bobot x
ij
, yaitu Z
i
= x . x
ij
, kemudian di lakukan operasi non-linier terhadap Z
i
sebelum menjadi keluaran yang akan mengaktifkan lapisan penjumlahan, operasi non-
linier yang digunakan adalah exp[Z
i
- 1
σ
2
], dan bila x dan x
ij
, dinormalisasikan terhadap panjang vektor, maka persamaan yang digunakan pada lapisan pola,
adalah:
⎥ ⎥
⎦ ⎤
⎢ ⎢
⎣ ⎡
− −
−
Τ 2
2 σ
x x
x x
exp
ij ij
28
2 Node lapisan Penjumlahan Summation Layer, menerima masukkan dari node
lapisan pola yang terkait dengan kelas yang ada, persamaan yang digunakan pada lapisan ini, adalah:
⎥ ⎥
⎦ ⎤
⎢ ⎢
⎣ ⎡
− −
−
Τ =
∑
2 1
2 σ
x x
x x
exp
ij ij
N i
29
3 Node lapisan Keluaran Output Layer, menghasilkan keluaran biner 0,1,
dan hanya mempunyai variabel bobot tunggal C
k
. C
k
dihitung menggunakan peramaan:
jk ik
ik ik
jk jk
k
m m
l h
l h
C ⋅
− =
; 30
Dimana: m
ik
= Jumlah pelatihan pola dari kelas θ
ik
; m
jk
= Jumlah pelatihan pola dari kelas θ
jk
Gambar 7 Arsitektur PNN
2.13 Validasi Hasil Pengukuran