∑
=
= =
≥
l i
i i
i
y l
i
1
,..., 3
, 2
, 1
α α
8 Dari hasil perhitungan ini diperoleh
i
α yang kebanyakan bernilai positif. Data yang berkorelasi dengan
i
α yang positif inilah yang disebut sebagai support vector Vapnik, 1995.
Penjelasan di atas berdasarkan asumsi bahwa kedua belah kelas dapat terpisah secara sempurna oleh hyperplane linear separable. Akan tetapi, pada umumnya dua
belah kelas pada input space tidak dapat terpisah secara sempurna non linear separable. Hal ini menyebabkan constraint pada persamaan 8 tidak dapat terpenuhi,
sehingga optimisasi tidak dapat dilakukan. Untuk mengatasi masalah ini, SVM dirumuskan ulang dengan memperkenalkan teknik softmargin.
Dalam softmargin, Persamaan 5 dimodifikasi dengan memasukkan slack variable
ξ ξ
i
sebagai berikut :
i i
i i
b w
x y
∀ −
≥ +
,
1 .
ξ 9
Dengan demikian persamaan 4 diubah menjadi :
∑
=
+ =
l i
i w
C w
w
1
2
2 1
, min
ξ ξ
τ 10
Parameter C dipilih untuk mengontrol tradeoff antara margin dan error klasifikasi ξ .
Nilai C yang besar berarti akan memberikan penalty yang lebih besar terhadap error klasifikasi tersebut Sembiring, 2007.
II.2.2. Non-Linear Classification Klasifikasi yang tidak Linier
Pada umumnya masalah dalam domain dunia nyata real world problem jarang yang bersifat linear separable tidak terpisahkan secara linear, tetapi bersifat non-linear.
Untuk menyelesaikan problem non-linear, SVM dimodifikasi dengan memasukkan fungsi kernel. Dalam non-linear SVM, pertama-tama data x dipetakan oleh fungsi
x Φ ke ruang vektor yang berdimensi lebih tinggi. Hyperplane yang memisahkan
kedua kelas tersebut dapat dikontruksikan. Selanjutnya gambar 2.1 menunjukkan bahwa fungsi
Φ
memetakan tiap data pada input space tersebut ke ruang vektor baru yang berdimensi lebih tinggi dimensi 3, sehingga kedua kelas dapat dipisahkan
Universitas Sumatera Utara
secara linear oleh sebuah hyperplane. Notasi matematika dari mapping ini adalah sebagai berikut :
q d
d d
ℜ →
ℜ Φ :
11
Gambar 2.1 Fungsi Φ memetakan data ke ruang vector yang berdimensi lebih tinggi
Selanjutnya proses pembelajaran pada SVM dalam menemukan titik-titik support vector, hanya bergantung pada dot product dari data yang sudah
ditransformasikan pada ruang baru yang berdimensi lebih tinggi, yaitu
j i
x x
Φ Φ .
. Karena umumnya transformasi Φ ini tidak diketahui, dan sangat sulit untuk
difahami secara mudah, maka perhitungan dot product dapat digantikan dengan fungsi kernel K
i
x ,
j
x
yang mendefinisikan secara implisit transformasi Φ. Hal ini disebut sebagai Kernel Trick, yang dirumuskan :
K
i
x ,
j
x
=
j i
x x
Φ Φ .
12 w
x f
= Φ
.
b x
+ Φ
13 =
∑
∈ =
n SV
X i
i i
i
y
, 1
α
b x
x
i
+ Φ
Φ .
14
Universitas Sumatera Utara
=
∑
∈ =
n SV
X i
i i
i
y
, 1
α b
x x
K
i
+ ,
15
SV pada persamaan di atas dimaksudkan dengan subset dari training set yang terpilih sebagai support vector, dengan kata lain data
i
x yang berkorespondensi pada ≥
i
α .
Penelitian ini menggunakan package e1071 dari perangkat lunak R open source versi 2.13.1 Dimitriadou, 2007
II.2.3. Karakteristik Support Vector Machine SVM
Menurut Nugroho,2003, karakteristik SVM secara umum dirangkumkan sebagai berikut:
1. Secara prinsip SVM adalah linear classifier.
2. Pattern recognition dilakukan dengan mentransformasikan data pada input
space ke ruang yang berdimensi lebih tinggi, dan optimisasi dilakukan pada ruang vector yang baru tersebut. Hal ini membedakan SVM dari solusi pattern
recognition pada umumnya, yang melakukan optimisasi parameter pada ruang hasil transformasi yang berdimensi lebih rendah daripada dimensi input space.
3. Menerapkan strategi Structural Risk Minimization SRM.
4. Prinsip kerja SVM pada dasarnya hanya mampu menangani klasifikasi dua
kelas.
II.2.4 Multiclass Support Vector Machine SVM