N
A
: Jumlah pola pelatihan kelas A N
: Jumlah pola pelatihan seluruh kelas σ :
Faktor penghalus
E. Faktor Penghalus Sigma σ
Menurut Lee, D.X, et.al. 2004, σ merupakan suatu nilai parameter
yang berguna untuk menghaluskan fungsi kernel. Secara tidak langsung nilai σ berperan pula dalam menentukan ketepatan klasifikasi PNN. Nilai σ tidak
dapat ditentukan secara langsung, akan tetapi bisa didapatkan melalui metode statistik maupun dari hasil coba-coba. Pada penelitian ini, nilai
σ didapatkan melalui Algoritma Genetik.
F. Probabilistic Neural Network PNN
Menurut Patterson 1996, PNN merupakan JST yang menggunakan teorema probabilitas klasik seperti pengklasifikasian Bayes dan penduga
kepekatan Parzen. Proses yang dilakukan oleh PNN dapat berlangsung lebih cepat bila dibandingkan dengan JST Back Propagation. Hal ini terjadi
disebabkan PNN hanya membutuhkan satu kali iterasi pelatihan bila dibandingkan dengan JST Back Propagation yang membutuhkan beberapa
kali iterasi dalam proses pelatihannya. Walaupun demikian, keakuratan dari klasifikasi PNN sangat
ditentukan oleh nilai σ dan pola pelatihan yang diberikan. Bila nilai σ yang
diterapkan pada PNN tepat, maka akurasi klasifikasi akan mendekati atau mencapai 100 . Bila nilai
σ yang diterapkan tidak tepat maka akurasi klasifikasi PNN akan berkurang.
Demikian pula dengan pola pelatihan PNN. Apabila pola pelatihan dan data masukan pada satu kelas yang sama sangat berbeda jauh nilainya,
maka PNN akan mengekstrapolasi data masukan tersebut. Hal inilah yang nantinya akan mengakibatkan akurasi klasifikasi PNN turun cukup drastis.
Gambar 10 menunjukkan arsitektur Jaringan Saraf Tiruan PNN Probabilistic Neural Network untuk dua kategori dua kelas.
Gambar 10. Bagan model jaringan saraf tiruan Probabilistic Neural Network. PNN terdiri atas empat lapisan, yaitu:
1. Lapisan Masukan
Berfungsi untuk menampung data masukan untuk PNN. Sebelum dilakukan pengolahan oleh PNN, setiap vektor masukan yang masuk harus
dinormalisasi terlebih dahulu. X
i Normalisas
O =
dengan X = Vektor Data Masukan berdimensi n
Neuron A1
Neuron A2
. .
. .
. .
. .
.
Neuron An
Neuron B1
Neuron B2
. .
. .
. .
. .
.
Neuron Bn
X1
X2
Xn
. .
. .
. .
. .
. f
A
x
f
B
x Pilih
kelas ω
i
dengan f
ω
i
x yang
maksi- mum
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
.
Lapisan Pola
Lapisan Penjumlahan
Lapisan Keluaran
Lapisan Masukan
2. Lapisan Pola
Berfungsi untuk menampung pola pelatihan dari setiap kelas. ⎟⎟
⎠ ⎞
⎜⎜ ⎝
⎛ −
=
2
1 exp
σ
ki T
W X
O dengan
X : Vektor Data masukan berdimensi n
W
ki
: Pola pelatihan ke-i dari kelas K
σ : Parameter penghalus
3. Lapisan Penjumlahan
Berfungsi untuk menampung hasil penjumlahan setiap kelas pada lapisan pola
∑
=
⎟⎟ ⎠
⎞ ⎜⎜
⎝ ⎛
− =
K
N i
ki T
W X
O
1 2
1 exp
σ dengan
X : Vektor Data masukan berdimensi n
W
ki
: Pola pelatihan ke-i dari kelas K
σ : Parameter penghalus; N
K
: Banyak pola pelatihan kelas K 4.
Lapisan Keluaran Berfungsi untuk menentukan keputusan klasifikasi.
⎪ ⎪
⎩ ⎪
⎪ ⎨
⎧
⎟ ⎟
⎠ ⎞
⎜ ⎜
⎝ ⎛
− ≤
⎟⎟ ⎠
⎞ ⎜⎜
⎝ ⎛
− ⎟
⎟ ⎠
⎞ ⎜
⎜ ⎝
⎛ −
⎟⎟ ⎠
⎞ ⎜⎜
⎝ ⎛
− =
∑ ∑
∑ ∑
= =
= =
k L
k L
N i
N j
lj T
ki T
N i
N j
lj T
ki T
W X
W X
KelasL W
X W
X KelasK
O
1 1
2 2
1 1
2 2
1 exp
1 exp
, 1
exp 1
exp ,
σ σ
σ σ
dengan X
: Vektor Data masukan berdimensi n W
ki
: Pola pelatihan ke-i dari kelas K
W
lj
: Pola pelatihan ke-i dari kelas L
σ : Parameter penghalus
N
K
: Banyak pola pelatihan kelas K
N
L
: Banyak pola pelatihan kelas L
K ≠ L
G. Algoritma Genetik