Two Dimension Principal Component Analysis 2DPCA

Aspidiaceae

2.6. Support Vector Machine SVM

Support Vector Machine SVM adalah sistem pembelajaran yang menggunakan ruang hipotesis berupa fungsi-fungsi linier dalam sebuah ruang fitur feature space berdimensi tinggi, dilatih dengan algoritma pembelajaran yang didasarkan pada teori optimasi dengan mengimplementasikan learning bisa yang berasal dari teori pembelajaran statistik Christianini et al 2000. Teori yang mendasari SVM sendiri sudah berkembang sejak 1960-an, tetapi baru diperkenalkan oleh Vapnik, Boser dan Guyon pada tahun 1992 dan sejak itu SVM berkembang dengan pesat. SVM adalah salah satu teknik yang relatif baru dibandingkan dengan teknik lain, tetapi memiliki performansi yang lebih baik di berbagai bidang aplikasi seperti bioinformatics, pengenalan tulisan tangan, klasifikasi teks dan lain sebagainya Christianini et al 2001. Konsep dasar SVM sebenarnya merupakan kombinasi harmonis dari teori- teori komputasi yang telah ada puluhan tahun sebelumnya, seperti margin hyperplane, kernel diperkenalkan oleh Aronszajn tahun 1950, dan demikian juga dengan konsep-konsep pendukung yang lain. Gambar 3 SVM berusaha menemukan hyperplane terbaik yang memisahkan kedua class –1 dan +1 Konsep SVM dapat dijelaskan secara sederhana sebagai usaha mencari hyperplane terbaik yang berfungsi sebagai pemisah dua buah class pada input space. Gambar 5 memperlihatkan beberapa pattern yang merupakan anggota dari dua buah class : +1 dan –1 . Pattern yang tergabung pada class –1 disimbolkan dengan warna merah kotak, sedangkan pattern pada class +1, disimbolkan dengan warna kuning lingkaran. Problem klasifikasi dapat diterjemahkan dengan usaha menemukan garis hyperplane yang memisahkan antara kedua kelompok tersebut. Berbagai alternatif garis pemisah discrimination boundaries ditunjukkan pada Gambar 5. Hyperplane pemisah terbaik antara kedua class dapat ditemukan dengan mengukur margin hyperplane tersebut. dan mencari titik maksimalnya. Margin adalah jarak antara hyperplane tersebut dengan pattern terdekat dari masing- masing class. Pattern yang paling dekat ini disebut sebagai support vector. Garis solid pada Gambar 5 sebelah kanan menunjukkan hyperplane yang terbaik, yaitu yang terletak tepat pada tengah-tengah kedua class, sedangkan titik merah dan kuning yang berada dalam lingkaran hitam adalah support vector. Usaha untuk mencari lokasi hyperplane ini merupakan inti dari proses pembelajaran pada SVM.

2.7. Multi Class Support Vector Machine SVM.

SVM saat pertama kali diperkenalkan oleh Vapnik, hanya dapat mengklasifikasikan data ke dalam dua kelas klasifikasi biner. Namun, penelitian lebih lanjut untuk mengembangkan SVM sehingga bisa mengklasifikasi data yang memiliki lebih dari dua kelas, terus dilakukan. Ada dua pilihan untuk mengimplementasikan multi class SVM yaitu dengan menggabungkan beberapa SVM biner atau menggabungkan semua data yang terdiri dari beberapa kelas ke dalam sebuah bentuk permasalah optimasi. Namun, pada pendekatan yang kedua permasalahan optimasi yang harus diselesaikan jauh lebih rumit. Berikut ini adalah metode yang umum digunakan untuk mengimplementasikan multi class SVM dengan pendekatan yang pertama:

2.7.1. Metode One-Against-All

Metode ini digunakan untuk membangun k buah model SVM biner k adalah jumlah kelas. Setiap model klasifikasi ke-i dilatih dengan menggunakan keseluruhan data. Contohnya, terdapat permasalahan klasifikasi dengan 4 buah kelas. Untuk pelatihan digunakan 4 buah SVM biner seperti pada Tabel 2 Tabel 2 Contoh SVM biner dengan metode One-against-all y i = 1 y i = −1 Hipotesis Kelas 1 Bukan kelas 1 f 1 x = w 1 x+b 1 Kelas 2 Bukan kelas 2 f 2 x = w 2 x+b 2 Kelas 3 Bukan kelas 3 f 3 x = w 3 x+b 3 Kelas 4 Bukan kelas 4 f 4 x = w 4 x+b 4

2.7.2. Fungsi Kernel

SVM dirancang untuk dapat menyelesaikan tidak hanya permasalah linear, tetapi juga permasalhan non-pinear. Agar permasalahan non-linear dapat diselesaikan, permasalajan tersebut dapat dipetakan ke dalam ruang ciri berdiensi lebih tinggi, kemudian diterapkan klasifikasi linear dalam ruang tersebut. Tepatnya memetakan variable input x ke dalam vector variable ciri x dengan fungsi transforasi x →x Osuna et al 1997. Terdapat empat kernel yang biasa digunakan dalam SVM, yaitu sebagai berikut Hsu and Lin 2010 1. Linear : Kx i , x j = x i T x j 2. Polinomial : Kx i , x j = x i T x j + r d ,  3. Radial Basis Function RBF : Kx i , x j = exp - x i - x j || 2 ,  4. Sigmoid : Kx i , x j = tanh x i T x j + r.