Fuzzy Local Binary Pattern

Operator LBP juga dapat dikembangkan dengan menggunakan berbagai ukuran sampling points dan radius yang disajikan pada Gambar 2. Pada piksel ketetanggaan akan digunakan notasi P,R dimana P merupakan sampling points dan R merupakan radius Ahonen 2008. 8,1 8,2 Gambar 2 Ukuran circular neighborhood.

2.3 Fuzzy Local Binary Pattern

Fuzzy pada pendekatan LBP meliputi transformasi input variabel untuk variabel fuzzy masing-masing, sesuai dengan seperangkat aturan fuzzy, dua aturan fuzzy yang digunakan untuk menggambarkan hubungan antara nilai pada circular sampling dan piksel pusat p center dalam ketetanggaan 3 × 3 menurut Iakovidis et al 2008 adalah sebagai berikut: Rule R : Semakin negatif nilai , maka nilai kepastian terbesar dari adalah 0. Rule R 1 : Semakin positif nilai , maka nilai kepastian terbesar dari adalah 1. Gambar 3 Keanggotaan fungsi m dan m 1 sebagai fungsi dari p i -p center Iakovidis et al 2008. Membership function m dan m 1 ditentukan oleh rule R dan rule R 1 Iakovidis et al 2008. . Membership function m adalah fungsi menurun yang didefinisikan pada persamaan 4 dan membership function m 1 mendefinisikan derajat dimana adalah 1. Fungsi didefinisikan pada persamaan 5. F p if F p F if F p if F p F i m i i i i . 2 1 F p if F p F if F p if F p F i m i i i i . 2 1 1 dengan, F adalah nilai fuzzy. Metode LBP menghasilkan hanya satu kode LBP saja, akan tetapi dengan menggunakan metode FLBP akan menghasilkan satu atau lebih kode LBP. Ilustrasi pendekatan FLBP di sajikan pada Gambar 4, dimana dua kode LBP A,B mencirikan ketetanggaan 3x3. Masing-masing nilai LBP yang dihasilkan memiliki tingkat kontribusi C A , C B yang berbeda, hal ini tergantung pada nilai-nilai fungsi keanggotaan m dan m 1 yang dihasilkan. Untuk ketetanggaan 3 3, kontribusi C LBP dari setiap kode LBP pada histogram FLBP didefinisikan sebagai berikut Iakovidis et al 2008: Total kontribusi ketetanggaan 3 3 ke dalam bin histogram FLBP yaitu : Ilustrasi pendekatan FLBP menghasilkan dua kode LBP sebagai penciri ketetanggaan 3x3 disajikan pada Gambar 4 dimana kode LBP tersebut akan direpresentasikan dengan histogram yang dihitung dengan menjumlahkan kontribusi dari setiap nilai LBP . 4 5 7 6 Gambar 3 Skema komputasi FLBP Iakovidis et al 2008. 2.4 Support Vector Machine Support Vector Machine SVM merupakan sistem pembelajaran untuk mengklasifikasikan data menjadi dua kelompok data yang menggunakan ruang hipotesis berupa fungsi-fungsi linear dalam sebuah ruang fitur berdimensi tinggi. Strategi dari SVM adalah berusaha menemukan hyperplane yang terbaik pada input space Nugroho et al. 2003. Cara kerja SVM melakukan transformasi data pada input space ke ruang yang berdimensi lebih tinggi, dan optimisasi dilakukan pada ruang vektor yang baru dengan menerapkan strategi Structural Risk Minimization SRM. Structural Risk Minimization SRM bertujuan untuk mengestimasi suatu fungsi dengan cara meminimalkan batas atas dari generalization error Santosa 2007. Ilustrasi SVM untuk data yang terpisahkan secara linier menurut Vapnik dan Cortes 1995, disajikan pada Gambar 5. Gambar 5 Struktur SVM. histogram Gambar 5 mengilustrasikan dua kelas dapat dipisahkan oleh sepasang bidang pembatas yang sejajar. Bidang pembatas pertama membatasi kelas pertama sedangkan bidang pembatas kedua membatasi kelas kedua, sehingga diperoleh persamaan 8 Vapnik dan Cortes 1995: Dengan, x i = data set y i = label kelas dari data w = vektor bobot yang tegak lurus terhadap hyperplane bidang normal b = menentukan lokasi fungsi pemisah relatif terhadap titik asal. Bidang pemisah hyperplane terbaik adalah hyperlane yang terletak ditengah- tengah antara dua bidang pembatas kelas, untuk mendapatkan hyperlane terbaik dengan memaksimalkan margin atau jarak antara dua set objek dari kelas yang berbeda. Nilai margin antara bidang pembatas adalah . Memaksimalkan nilai margin ekuivalen dengan meminimumkan nilai . Persamaan yang digunakan untuk pencarian bidang pemisah terbaik dengan nilai margin terbesar pada permasalahan linear di dalam primal space, disajikan pada persamaan 9 Vapnik dan Cortes 1995: Pada kasus yang tidak feasible, dimana beberapa data tidak dapat dikelompokkan secara benar maka persamaan yang digunakan adalah sebagai berikut Vapnik dan Cortes 1995: 8 9 2 10 dengan, = variabel slack C = parameter yang menentukan besar pinalti akibat kesalahan klasifikasi. Permasalahan ini akan lebih mudah diselesaikan jika diubah ke dalam formulasi Lagrange dengan menggunakan Lagrange multiplier . Dengan demikian permasalahan optimasi konstrain dapat diubah menjadi Vapnik dan Cortes 1995: Vektor seringkali bernilai besar mungkin tak terhingga, tetapi nilai terhingga. Untuk itu formulasi Lagrange primal problem diubah ke dalam Lagrange dual problem. Dengan demikian persamaan Lagrange hasil modifikasi menjadi persamaan 12 Vapnik dan Cortes 1995: . Jadi persoalan pencarian bidang pemisah terbaik dapat dirumuskan sebagai berikut Vapnik dan Cortes 1995: Persamaan 13 akan menghasilkan nilai untuk setiap data pelatihan. Nilai tersebut digunakan untuk menentukan . Data pelatihan yang memiliki nilai adalah support vector sedangkan sisanya memiliki nilai , support vector adalah data yang memiliki jarak paling dekat dengan hyperplane. Ilustrasi SVM untuk data multiclass menurut Santosa 2007, disajikan pada Gambar 6. 11 12 13 p 2 p 3 3 P 1 =w 1 .w 2 T x+b 1 .b 2 =0 1 2 w 1 .w 2 T x+b 1 .b 2 =+1 w 1 .w 2 T x+b 1 .b 2 =-1 Gambar 6 SVM untuk klasifikasi tiga kelas. Gambar 6 mengilustrasikan klasifikasi untuk tiga kelas, teknik yang digunakan untuk mengklasifikasi tiga kelas adalah satu lawan semua SLA. Cara kerja teknik satu lawan semua, pada saat melakukan training P 1 , semua data dalam kelas satu diberi label +1 dan data yang lain dari kelas dua dan tiga diberi label -1, sebaliknya jika melatih P 2 , semua data dalam kelas dua diberi label +1 dan data yang lain dari kelas satu dan tiga diberi label -1, begitu pun pada saat melakukan training P 3 , semua data dalam kelas tiga diberi label +1 dan data yang lain dari kelas satu dan dua diberi label -1, maka fungsi pemisah ke –i menyelesaikan permasalahan optimisasi berikut Santosa 2007. Setelah menyelesaikan persamaan 10 diperoleh k fungsi pemisah, kemudian kelas dari suatu objek baru x ditentukan berdasarkan nilai terbesar dari fungsi pemisah Santosa 2007: Jika data terpisah secara non linier, SVM dimodifikasi dengan memasukkan fungsi . Langkah yang dilakukan, data dipetakan oleh fungsi ke ruang vektor baru yang berdimensi lebih tinggi. Selanjutnya pada ruang vektor yang baru ini, SVM mencari hyperplane yang memisahkan kedua kelas secara linier. Pencarian ini hanya bergantung pada dot product dari data yang sudah dipetakan pada ruang baru 14 yang berdimensi lebih tinggi, yaitu . Pada umumnya transformasi ini tidak diketahui dan sangat sulit untuk dipahami sehingga perhitungan dot product dapat digantikan dengan fungsi kernel yang dirumuskan menurut Vapnik dan Cortes 1995 sebagai berikut: Sehingga persamaan menjadi sebagai berikut: Fungsi hasil pembelajaran yang dihasilkan disajikan pada persamaan 16. Dengan: ns = banyaknya data pelatihan yang termasuk support vector. x = data yang diklasifikasikan Kernel yang yang digunakan pada SVM diantaranya adalah : 1. Linear : 2. Polynomial : 3. Gaussian radial-basis function : dengan: γ , r dan d merupakan parameter kernel.

2.5 Probabilistic Neural Network PNN