Operator LBP juga dapat dikembangkan dengan menggunakan berbagai ukuran sampling points dan radius yang disajikan pada Gambar 2. Pada piksel ketetanggaan
akan digunakan notasi P,R dimana P merupakan sampling points dan R merupakan radius Ahonen 2008.
8,1 8,2 Gambar 2 Ukuran circular neighborhood.
2.3 Fuzzy Local Binary Pattern
Fuzzy pada pendekatan LBP meliputi transformasi input variabel untuk variabel fuzzy masing-masing, sesuai dengan seperangkat aturan fuzzy, dua aturan fuzzy yang
digunakan untuk menggambarkan hubungan antara nilai pada circular sampling dan piksel pusat p
center
dalam ketetanggaan 3 × 3 menurut Iakovidis et al
2008 adalah sebagai berikut:
Rule R : Semakin negatif nilai
, maka nilai kepastian terbesar dari adalah 0. Rule R
1
: Semakin positif nilai , maka nilai kepastian terbesar dari adalah 1.
Gambar 3 Keanggotaan fungsi m dan m
1
sebagai fungsi dari p
i
-p
center
Iakovidis et al 2008.
Membership function m dan m
1
ditentukan oleh rule R dan rule R
1
Iakovidis et al 2008.
.
Membership function m adalah fungsi menurun yang
didefinisikan pada persamaan 4 dan membership function m
1
mendefinisikan derajat dimana adalah 1. Fungsi
didefinisikan pada persamaan 5.
F p
if F
p F
if F
p if
F p
F i
m
i i
i i
. 2
1
F p
if F
p F
if F
p if
F p
F i
m
i i
i i
. 2
1
1
dengan, F adalah nilai fuzzy. Metode LBP menghasilkan hanya satu kode LBP saja, akan tetapi dengan
menggunakan metode FLBP akan menghasilkan satu atau lebih kode LBP. Ilustrasi pendekatan FLBP di sajikan pada Gambar 4, dimana dua kode LBP A,B mencirikan
ketetanggaan 3x3. Masing-masing nilai LBP yang dihasilkan memiliki tingkat kontribusi C
A
, C
B
yang berbeda, hal ini tergantung pada nilai-nilai fungsi keanggotaan m
dan m
1
yang dihasilkan. Untuk ketetanggaan 3 3, kontribusi C
LBP
dari setiap kode LBP pada histogram FLBP didefinisikan sebagai berikut Iakovidis et al 2008:
Total kontribusi ketetanggaan 3 3 ke dalam bin histogram FLBP yaitu :
Ilustrasi pendekatan FLBP menghasilkan dua kode LBP sebagai penciri ketetanggaan 3x3 disajikan pada Gambar 4 dimana kode LBP tersebut akan
direpresentasikan dengan histogram yang dihitung dengan menjumlahkan kontribusi dari setiap nilai LBP
.
4
5
7 6
Gambar 3 Skema komputasi FLBP Iakovidis et al 2008. 2.4
Support Vector Machine
Support Vector Machine SVM merupakan sistem pembelajaran untuk mengklasifikasikan data menjadi dua kelompok data yang menggunakan ruang
hipotesis berupa fungsi-fungsi linear dalam sebuah ruang fitur berdimensi tinggi. Strategi dari SVM adalah berusaha menemukan hyperplane yang terbaik pada input
space Nugroho et al. 2003. Cara kerja SVM melakukan transformasi data pada input space ke ruang yang berdimensi lebih tinggi, dan optimisasi dilakukan pada
ruang vektor yang baru dengan menerapkan strategi Structural Risk Minimization SRM. Structural Risk Minimization SRM bertujuan untuk mengestimasi suatu
fungsi dengan cara meminimalkan batas atas dari generalization error Santosa 2007. Ilustrasi SVM untuk data yang terpisahkan secara linier menurut Vapnik dan
Cortes 1995, disajikan pada Gambar 5.
Gambar 5 Struktur SVM.
histogram
Gambar 5 mengilustrasikan dua kelas dapat dipisahkan oleh sepasang bidang pembatas yang sejajar. Bidang pembatas pertama membatasi kelas pertama
sedangkan bidang pembatas kedua membatasi kelas kedua, sehingga diperoleh persamaan 8 Vapnik dan Cortes 1995:
Dengan, x
i
= data set y
i
= label kelas dari data w = vektor bobot yang tegak lurus terhadap hyperplane bidang normal
b = menentukan lokasi fungsi pemisah relatif terhadap titik asal. Bidang pemisah hyperplane terbaik adalah hyperlane yang terletak ditengah-
tengah antara dua bidang pembatas kelas, untuk mendapatkan hyperlane terbaik dengan memaksimalkan margin atau jarak antara dua set objek dari kelas yang
berbeda. Nilai margin antara bidang pembatas adalah . Memaksimalkan nilai
margin ekuivalen dengan meminimumkan nilai . Persamaan yang digunakan untuk pencarian bidang pemisah terbaik dengan nilai margin terbesar pada permasalahan
linear di dalam primal space, disajikan pada persamaan 9 Vapnik dan Cortes 1995:
Pada kasus yang tidak feasible, dimana beberapa data tidak dapat dikelompokkan secara benar maka persamaan yang digunakan adalah sebagai berikut Vapnik dan
Cortes 1995: 8
9
2
10
dengan, = variabel slack
C = parameter yang menentukan besar pinalti akibat kesalahan klasifikasi. Permasalahan ini akan lebih mudah diselesaikan jika diubah ke dalam formulasi
Lagrange dengan menggunakan Lagrange multiplier . Dengan demikian permasalahan optimasi konstrain dapat diubah menjadi Vapnik dan Cortes 1995:
Vektor seringkali bernilai besar mungkin tak terhingga, tetapi nilai
terhingga. Untuk itu formulasi Lagrange primal problem diubah ke dalam
Lagrange dual problem. Dengan demikian persamaan Lagrange hasil modifikasi
menjadi persamaan 12 Vapnik dan Cortes 1995:
. Jadi persoalan pencarian bidang pemisah terbaik dapat dirumuskan sebagai berikut Vapnik dan Cortes 1995:
Persamaan 13 akan menghasilkan nilai untuk setiap data pelatihan. Nilai
tersebut digunakan untuk menentukan . Data pelatihan yang memiliki nilai adalah support vector sedangkan sisanya memiliki nilai
, support vector adalah data yang memiliki jarak paling dekat dengan hyperplane.
Ilustrasi SVM untuk data multiclass menurut Santosa 2007, disajikan pada Gambar 6.
11
12
13
p
2
p
3
3
P
1
=w
1
.w
2 T
x+b
1
.b
2
=0
1 2
w
1
.w
2 T
x+b
1
.b
2
=+1 w
1
.w
2 T
x+b
1
.b
2
=-1
Gambar 6 SVM untuk klasifikasi tiga kelas.
Gambar 6 mengilustrasikan klasifikasi untuk tiga kelas, teknik yang digunakan untuk mengklasifikasi tiga kelas adalah satu lawan semua SLA. Cara kerja teknik
satu lawan semua, pada saat melakukan training P
1
, semua data dalam kelas satu diberi label +1 dan data yang lain dari kelas dua dan tiga diberi label -1, sebaliknya
jika melatih P
2
, semua data dalam kelas dua diberi label +1 dan data yang lain dari kelas satu dan tiga diberi label -1, begitu pun pada saat melakukan training P
3
, semua data dalam kelas tiga diberi label +1 dan data yang lain dari kelas satu dan dua
diberi label -1, maka fungsi pemisah ke –i menyelesaikan permasalahan optimisasi
berikut Santosa 2007. Setelah menyelesaikan persamaan 10 diperoleh k fungsi pemisah, kemudian kelas
dari suatu objek baru x ditentukan berdasarkan nilai terbesar dari fungsi pemisah Santosa 2007:
Jika data terpisah secara non linier, SVM dimodifikasi dengan memasukkan fungsi . Langkah yang dilakukan, data dipetakan oleh fungsi
ke ruang vektor baru yang berdimensi lebih tinggi. Selanjutnya pada ruang vektor yang baru ini,
SVM mencari hyperplane yang memisahkan kedua kelas secara linier. Pencarian ini hanya bergantung pada dot product dari data yang sudah dipetakan pada ruang baru
14
yang berdimensi lebih tinggi, yaitu . Pada umumnya transformasi
ini tidak diketahui dan sangat sulit untuk dipahami sehingga perhitungan dot product dapat digantikan dengan fungsi kernel yang dirumuskan menurut Vapnik dan Cortes
1995 sebagai berikut:
Sehingga persamaan menjadi sebagai berikut:
Fungsi hasil pembelajaran yang dihasilkan disajikan pada persamaan 16.
Dengan: ns = banyaknya data pelatihan yang termasuk support vector.
x = data yang diklasifikasikan Kernel yang yang digunakan pada SVM diantaranya adalah :
1. Linear :
2. Polynomial :
3. Gaussian radial-basis function :
dengan: γ , r dan d merupakan parameter kernel.
2.5 Probabilistic Neural Network PNN