Proses Pelatihan JST Backpropagation
yang diluar daerah yang diarsir berkontribusi terhadap ongkos pinalti. Support vector adalah titik-titik dalam data latih yang terletak pada dan diluar pembatas
dari fungsi regresi. Semakin kecil nilai ε, akurasi semakin tinggi, maka jumlah support vector semakin banyak, nilai variabel slack juga semakin tinggi sehingga
memberi pengaruh yang lebih besar pada fungsi optimisasi.
Gambar 6 Ilustrasi pengaturan soft margin untuk SVR Linier
Permasalahan optimisasi pada persamaan 12, kebanyakan lebih mudah diselesaikan dalam formulasi dual
Smola dan Schölkopf, 2003, dan formulasi dual juga menyediakan kunci untuk memperluas SVM pada fungsi-fungsi non linier.
Dalam formulasi dual, menggunakan metode pengganda Lagrange, permasalahan optimisasi 12 dapat dituliskan dengan :
Max Q −
=
∑ R − R
∗
SR
T
− R
T ∗
U〈 ,
T
〉
, ,TF
– A ∑ R + R
∗ ,
F
+ ∑ R − R
∗ ,
F
14 yang memenuhi
∑ R − R
∗
= 0
, F
dan R , R
∗
∈ W0, BX
w dapat diuraikan secara lengkap sebagai kombinasi linier dari vektor- vektor dalam data latih x
i,
2 = ∑ R − R
∗ ,
F
, sehingga fungsi regresi dapat dituliskan sebagai :
= ∑ R − R
∗
〈 , 〉 + 5
, F
15
Kompleksitas fungsi yang direpresentasikan dengan support vector tidak tergatung pada besarnya dimensi dari ruang input X, namun hanya tergantung
pada banyaknya support vector. Algoritma lengkap support vector dapat diuraikan dalam dot product antar data. Pada saat mengevaluasi fx, maka tidak perlu
menghitung w secara eksplisit. Penerapan SVR pada permasalahan kasus nonlinier, salah satu pendekatan
penyelesaiannya dilakukan dengan menggunakan metode kernel. Hal ini dilakukan dengan melakukan praproses, memetakan data x dari ruang input X ke
ruang fitur F dengan dimensi yang lebih tinggi melalui sebuah fungsi kernel Y: → Y .
Sering kali fungsi Y ini tidak tersedia atau tidak bisa dihitung, namun
mengingat algoritma penyelesaian support vector regression hanya tergantung pada dot product antar titik-titik x
i
dalam ruang input, maka hanya cukup mengetahui
\ ,
]
= 〈Y , Y ′ 〉, selanjutnya permasalahan optimisasi support vector dapat dituliskan kembali sebagai berikut :
Memaksimalkan ` −
=
∑ R − R
∗
SR
T
− R
T ∗
U\ ,
T ,
,TF
– A ∑ R + R
∗ ,
F
+ ∑ R − R
∗ ,
F
16
yang memenuhi ∑
R − R
∗
= 0
, F
dan R , R
∗
∈ W0, BX
, persamaan 15 dapat dituliskan kembali sebagai 2 = ∑
R − R
∗
Y
, F
dan = ∑
R − R
∗
\ , + 5
, F
17
Fungsi kernel \ ,
]
yang biasanya digunakan dalam SVR adalah : •
Kernel Linier : \ ,
]
= 〈 , ′〉 •
Kernel Polynomial : \ ,
]
= 〈 ,
]
〉 + a
b
• Kernel Radial Basis Function RBF :
\ ,
]
= c
‖dedf‖g ghg
19