Visualisasi Google Maps Pengukuran Evaluasi
4
Proses pembelajaran
pada SVM
dalam menemukan titik-titik
support vector
, hanya bergantung pada dot product dari data
yang sudah ditransformasikan pada ruang baru yang berdimensi
lebih tinggi, yaitu ⃗
⃗ Karena umumnya transformasi Φ ini tidak
diketahui, dan sangat sulit untuk difahami secara mudah, maka perhitungan dot product tersebut sesuai teori
Mercer dapat digantikan dengan fungsi kernel ⃗
⃗ yang mendefinisikan secara implicit transformasi Φ. Hal
ini disebut sebagai Kernel Trick [11], yang dirumuskan: ⃗
⃗ ⃗
⃗ 2.12
Kernel trick memberikan berbagai kemudahan, karena dalam proses pembelajaran SVM, untuk
menentukan support vector, kita hanya cukup mengetahui fungsi kernel yang dipakai, dan tidak perlu
mengetahui wujud dari fungsi non
linear
Φ. Berbagai jenis fungsi kernel dikenal, sebagaimana dirangkumkan
pada tabel. Tabel kernel yang umum digunakan
Jenis Kernel Definisi
Polynomial
p j
i j
i
x x
x x
K 1
, ,
Gaussian RBF
2 2
2 exp
,
j i
j i
x x
x x
K
Sigmoid
, tanh
,
j i
j i
x x
x x
K
Linear
j t
i j
i
x x
x x
K
,
Selanjutnya hasil klasifikasi dari data xr diperoleh dari persamaan berikut
Support vector
pada persamaan di atas dimaksudkan dengan subset dari training set yang
terpilih sebagai
support vector
, dengan kata lain data x
i
yang berkorespondensi pada α
i
≥ 0. 2.6.2
Gaussian Kernel
Penggunaan kernel merupakan salah satu faktor dalam keberhasilan dari banyaknya algoritma klasifikasi
untuk permukaan non
linear
. Gaussian Kernel adalah pilihan kernel yang menjanjikan. Kernel ini secara
non
linear
memetakan sampel ke dalam ruang dimensi yang lebih tinggi, sehingga tidak seperti kernel
linear
, kernel ini dapt menangani kasus ketika hubungan antara
label kelas dan atributnya tidak
linear
. Alasan kedua adalah pada kernel Gaussian Kernel, kompleksitas
hyperparameter-nya lebih sedikit dibandingkan dengan kernel non
linear
lain seperti kernel polinomial [7] dengan persamaan:
⃗ ⃗
‖ ‖ 2.16
Dimana niali γ ≥ 0 adalah sebuah parameter yang mengontrol besarnya fleksibilitas persamaan
Gaussian ini. Dapat dilihat bahwa data yang bersifat
linear
dapat di kernelisasikan, dengan syarat bahwa independensi data hanya menggunakan dot products.