Regresi Linier Regresi Non-Linier

commit to user fungsi regresi quadratic. Huber mengusulkan fungsi regresi pada Gambar 2.8. c sebagai sebuah fungsi regresi yang kuat yang memiliki sifat yang optimal ketika distribusi data tidak diketahui. Untuk mengetahui hal ini, Vapnik mengusulkan fungsi kerugian pada Gambar 2.8. sebagai sebuah perkiraan terhadap fungsi kerugian milik Hubber yang memungkinkan adanya sebuah regresi pada vektor pendukung yang diperoleh.

2.3.1. Regresi Linier

Pertimbangkan permasalahan dalam perkiraan data set, D = {x 1 , y 1 ,…, x 1 , y 1 }, x Î R n , y Î R, 2.14 Dengan fungsi linier, f x = w,x + b. 2.15 Fungsi regresi optimal diberikan oleh fungsi minimumnya, F w, x = ½ ççwçç 2 + C S x i - + x i + , 2.16 Di mana C adalah nilai pra-spesifik, dan x - , x + adalah variabel bebas yang mewakili batasan atas dan bawah pada hasil dari sistim tersebut.

2.3.1. Regresi Non-Linier

Dengan cara yang sama untuk masalah klasifikasi, sebuah model non- linier biasanya dibutuhkan untuk mendapatkan data model yang sesuai. Dengan cara yang sesuai dengan pendekatan SVC non-linier, sebuah pemetaan non-linier dapat digunakan untuk memetakan data ke dalam ruang tampilan dimensi yang tinggi di mana regresi linier dilakukan. Pendekatan Kernel dipakai untuk mendapatkan dimensi yang tepat. Penyelesaian SVR non-linier, dengan menggunakan fungsi kerugian Î - insentif, Gambar 2.8 d, didapatkan dengan, max 폀,폀 ∗ Ⰸ , ∗ max 폀,폀 ∗ ∗ Ⰸ Ⰸ 1 2 Ⰸ ∗ ∗ 翰 ⵈ , ⵈ Ⰸ2.17 commit to user dengan pembatasan, , ∗ , 1, … , 2.18 Ⰸ ∗ Persamaan penyelesaian 3.21 dengan Penyelesaian pembatasan 3.22 menentukan pengganda Lagrange, µ, µ , dan fungsi regresi diberikan dengan, Ⰸ Ⰸ ∗ ax 翰ⰈX , X Ⰸ2.19 Di mana 〈 , ⵈ〉 Ⰸ ∗ 翰 ⵈ , ⵈ Ⰸ2.20 1 2 Ⰸ ∗ Ⰸ翰Ⰸⵈ , ⵈ 翰Ⰸⵈ , ⵈ x Karena dengan SVC, batasan persamaan dapat menurun jika Kernel mengandung pola yang bias, b diakomodasi di antara fungsi Kernel, dan fungsi regresi diberikan dengan, Ⰸⵈ Ⰸ ∗ 翰Ⰸⵈ , ⵈ Ⰸ2.21 Kriteria optimalisasi untuk fungsi regresi yang lain dalam Bab 2.3.1 secara mirip didapatkan dengan mengganti produk titik dengan sebuah fungsi Kernel. Fungsi kerugian Î - insentif menarik karena tidak seperti fungsi biaya Huber dan quadratic, di mana semua poin data merupakan vektor pendukung, fungsi SV bisa jadi jarang. Fungsi kerugian quadratic menghasilkan sebuah penyelesaian di mana sesuai dengan regresi daerah, atau zeroth order regularization, di mana parameter regularisasi l = 12C. commit to user BAB III METODOLOGI PENELITIAN

3.1. Waktu dan Tempat Pelaksanaan Penelitian