Faktor Penghalus Sigma σ Probabilistic Neural Network PNN

N A : Jumlah pola pelatihan kelas A N : Jumlah pola pelatihan seluruh kelas σ : Faktor penghalus

E. Faktor Penghalus Sigma σ

Menurut Lee, D.X, et.al. 2004, σ merupakan suatu nilai parameter yang berguna untuk menghaluskan fungsi kernel. Secara tidak langsung nilai σ berperan pula dalam menentukan ketepatan klasifikasi PNN. Nilai σ tidak dapat ditentukan secara langsung, akan tetapi bisa didapatkan melalui metode statistik maupun dari hasil coba-coba. Pada penelitian ini, nilai σ didapatkan melalui Algoritma Genetik.

F. Probabilistic Neural Network PNN

Menurut Patterson 1996, PNN merupakan JST yang menggunakan teorema probabilitas klasik seperti pengklasifikasian Bayes dan penduga kepekatan Parzen. Proses yang dilakukan oleh PNN dapat berlangsung lebih cepat bila dibandingkan dengan JST Back Propagation. Hal ini terjadi disebabkan PNN hanya membutuhkan satu kali iterasi pelatihan bila dibandingkan dengan JST Back Propagation yang membutuhkan beberapa kali iterasi dalam proses pelatihannya. Walaupun demikian, keakuratan dari klasifikasi PNN sangat ditentukan oleh nilai σ dan pola pelatihan yang diberikan. Bila nilai σ yang diterapkan pada PNN tepat, maka akurasi klasifikasi akan mendekati atau mencapai 100 . Bila nilai σ yang diterapkan tidak tepat maka akurasi klasifikasi PNN akan berkurang. Demikian pula dengan pola pelatihan PNN. Apabila pola pelatihan dan data masukan pada satu kelas yang sama sangat berbeda jauh nilainya, maka PNN akan mengekstrapolasi data masukan tersebut. Hal inilah yang nantinya akan mengakibatkan akurasi klasifikasi PNN turun cukup drastis. Gambar 10 menunjukkan arsitektur Jaringan Saraf Tiruan PNN Probabilistic Neural Network untuk dua kategori dua kelas. Gambar 10. Bagan model jaringan saraf tiruan Probabilistic Neural Network. PNN terdiri atas empat lapisan, yaitu: 1. Lapisan Masukan Berfungsi untuk menampung data masukan untuk PNN. Sebelum dilakukan pengolahan oleh PNN, setiap vektor masukan yang masuk harus dinormalisasi terlebih dahulu. X i Normalisas O = dengan X = Vektor Data Masukan berdimensi n Neuron A1 Neuron A2 . . . . . . . . . Neuron An Neuron B1 Neuron B2 . . . . . . . . . Neuron Bn X1 X2 Xn . . . . . . . . . f A x f B x Pilih kelas ω i dengan f ω i x yang maksi- mum . . . . . . . . . . . . . . . . . . . . . . . Lapisan Pola Lapisan Penjumlahan Lapisan Keluaran Lapisan Masukan 2. Lapisan Pola Berfungsi untuk menampung pola pelatihan dari setiap kelas. ⎟⎟ ⎠ ⎞ ⎜⎜ ⎝ ⎛ − = 2 1 exp σ ki T W X O dengan X : Vektor Data masukan berdimensi n W ki : Pola pelatihan ke-i dari kelas K σ : Parameter penghalus 3. Lapisan Penjumlahan Berfungsi untuk menampung hasil penjumlahan setiap kelas pada lapisan pola ∑ = ⎟⎟ ⎠ ⎞ ⎜⎜ ⎝ ⎛ − = K N i ki T W X O 1 2 1 exp σ dengan X : Vektor Data masukan berdimensi n W ki : Pola pelatihan ke-i dari kelas K σ : Parameter penghalus; N K : Banyak pola pelatihan kelas K 4. Lapisan Keluaran Berfungsi untuk menentukan keputusan klasifikasi. ⎪ ⎪ ⎩ ⎪ ⎪ ⎨ ⎧ ⎟ ⎟ ⎠ ⎞ ⎜ ⎜ ⎝ ⎛ − ≤ ⎟⎟ ⎠ ⎞ ⎜⎜ ⎝ ⎛ − ⎟ ⎟ ⎠ ⎞ ⎜ ⎜ ⎝ ⎛ − ⎟⎟ ⎠ ⎞ ⎜⎜ ⎝ ⎛ − = ∑ ∑ ∑ ∑ = = = = k L k L N i N j lj T ki T N i N j lj T ki T W X W X KelasL W X W X KelasK O 1 1 2 2 1 1 2 2 1 exp 1 exp , 1 exp 1 exp , σ σ σ σ dengan X : Vektor Data masukan berdimensi n W ki : Pola pelatihan ke-i dari kelas K W lj : Pola pelatihan ke-i dari kelas L σ : Parameter penghalus N K : Banyak pola pelatihan kelas K N L : Banyak pola pelatihan kelas L K ≠ L

G. Algoritma Genetik