Jaringan Syaraf Tiruan Probabilistik untuk data vektor x dan x

Pengambilan keputusan, dilakukan berdasarkan nilai tertinggi yang mendekati nilai fungsi kepekatan peluang f i x dari vektor x untuk dapat masuk dalam kelas tertentu θ i , argmax{ h n .l n .f n x}, dimana n = 1, …,K, Specht 1992, Zaknich 1995.

2.12 Jaringan Syaraf Tiruan Probabilistik

Jaringan syaraf tiruan probabilistik atau probabilistic neural networs PNN, diperkenalkan oleh D.F Specht pada tahun 1988, sebagai jaringan syaraf tiruan dengan 3 lapisan tesembunyi setelah lapisan masukkan input layer, yaitu: lapisan pola pattern layer, lapisan penjumlahan summation layer, lapisan keluaran output layer, dan bersifat feed-forward, dieksekusi dengan satu kali proses one pass Specht 1990. Kelebihan algoritma PNN, adalah kemudahan yang diberikan untuk modifikasi jaringan, ketika dilakukan penambahan atau pengurang data pelatihan yang digunakan. Kelemahan algoritma PNN, adalah terjadinya peningkatan penggunaan ruang memori komputer, dan waktu komputasi, ketika penggunaan data pelatihan bertambah besar, karena semua data pelatihan harus dimasukkan ke dalam algoritma PNN Bolat et al. 2003, Zaknich 1995. Kerja PNN, didasarkan pada penghitungan nilai fungsi kepekatan peluang f i x untuk setiap data vektor. Fungsi f i x merupakan fungsi pengambilan keputusan Bayes g i

x, untuk data vektor x dan x

ij yang telah dinormalisasi. Persamaan fungsi f i x atau g i x, tuliskan sebagai berikut, Specht 1992, Zaknich 1995. ∑ = Τ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎣ ⎡ ⎟ ⎟ ⎠ ⎞ ⎜ ⎜ ⎝ ⎛ − ⋅ − − = = i M j ij ij i i i . x x x x exp M x g x f 1 2 2 2 2 1 σ σ π ρ ρ 27 dengan i = 1, 2, …., K. dimana: T Transpose i Jumlah kelas j Jumlah pola x ij Vektor pelatihan ke j dari kelas i x Vektor pengujian M i Jumlah vektor pelatihan dari kelas i ρ Dimensi vektor x σ Faktor penghalus, standar deviasi Sampel data untuk data pelatihan tidak sama dengan sampel data untuk data pengujian PNN. Blok diagram arsitektur PNN, disajikan pada Gambar 7. Posisi node – node yang dialokasikan dalam PNN setelah lapisan input, adalah: 1 Node lapisan Pola Pattern Layer, digunakan 1 node pola untuk setiap data pelatihan yang digunakan. Setiap node pola, merupakan perkalian titik dot product dari vektor masukkan x yang akan diklasifikasikan, dengan vektor bobot x ij , yaitu Z i = x . x ij , kemudian di lakukan operasi non-linier terhadap Z i sebelum menjadi keluaran yang akan mengaktifkan lapisan penjumlahan, operasi non- linier yang digunakan adalah exp[Z i - 1 σ 2 ], dan bila x dan x ij , dinormalisasikan terhadap panjang vektor, maka persamaan yang digunakan pada lapisan pola, adalah: ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎣ ⎡ − − − Τ 2 2 σ x x x x exp ij ij 28 2 Node lapisan Penjumlahan Summation Layer, menerima masukkan dari node lapisan pola yang terkait dengan kelas yang ada, persamaan yang digunakan pada lapisan ini, adalah: ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎣ ⎡ − − − Τ = ∑ 2 1 2 σ x x x x exp ij ij N i 29 3 Node lapisan Keluaran Output Layer, menghasilkan keluaran biner 0,1, dan hanya mempunyai variabel bobot tunggal C k . C k dihitung menggunakan peramaan: jk ik ik ik jk jk k m m l h l h C ⋅ − = ; 30 Dimana: m ik = Jumlah pelatihan pola dari kelas θ ik ; m jk = Jumlah pelatihan pola dari kelas θ jk Gambar 7 Arsitektur PNN

2.13 Validasi Hasil Pengukuran