Proses Pelatihan JST Backpropagation

yang diluar daerah yang diarsir berkontribusi terhadap ongkos pinalti. Support vector adalah titik-titik dalam data latih yang terletak pada dan diluar pembatas dari fungsi regresi. Semakin kecil nilai ε, akurasi semakin tinggi, maka jumlah support vector semakin banyak, nilai variabel slack juga semakin tinggi sehingga memberi pengaruh yang lebih besar pada fungsi optimisasi. Gambar 6 Ilustrasi pengaturan soft margin untuk SVR Linier Permasalahan optimisasi pada persamaan 12, kebanyakan lebih mudah diselesaikan dalam formulasi dual Smola dan Schölkopf, 2003, dan formulasi dual juga menyediakan kunci untuk memperluas SVM pada fungsi-fungsi non linier. Dalam formulasi dual, menggunakan metode pengganda Lagrange, permasalahan optimisasi 12 dapat dituliskan dengan : Max Q − = ∑ R − R ∗ SR T − R T ∗ U〈 , T 〉 , ,TF – A ∑ R + R ∗ , F + ∑ R − R ∗ , F 14 yang memenuhi ∑ R − R ∗ = 0 , F dan R , R ∗ ∈ W0, BX w dapat diuraikan secara lengkap sebagai kombinasi linier dari vektor- vektor dalam data latih x i, 2 = ∑ R − R ∗ , F , sehingga fungsi regresi dapat dituliskan sebagai : = ∑ R − R ∗ 〈 , 〉 + 5 , F 15 Kompleksitas fungsi yang direpresentasikan dengan support vector tidak tergatung pada besarnya dimensi dari ruang input X, namun hanya tergantung pada banyaknya support vector. Algoritma lengkap support vector dapat diuraikan dalam dot product antar data. Pada saat mengevaluasi fx, maka tidak perlu menghitung w secara eksplisit. Penerapan SVR pada permasalahan kasus nonlinier, salah satu pendekatan penyelesaiannya dilakukan dengan menggunakan metode kernel. Hal ini dilakukan dengan melakukan praproses, memetakan data x dari ruang input X ke ruang fitur F dengan dimensi yang lebih tinggi melalui sebuah fungsi kernel Y: → Y . Sering kali fungsi Y ini tidak tersedia atau tidak bisa dihitung, namun mengingat algoritma penyelesaian support vector regression hanya tergantung pada dot product antar titik-titik x i dalam ruang input, maka hanya cukup mengetahui \ , ] = 〈Y , Y ′ 〉, selanjutnya permasalahan optimisasi support vector dapat dituliskan kembali sebagai berikut : Memaksimalkan ` − = ∑ R − R ∗ SR T − R T ∗ U\ , T , ,TF – A ∑ R + R ∗ , F + ∑ R − R ∗ , F 16 yang memenuhi ∑ R − R ∗ = 0 , F dan R , R ∗ ∈ W0, BX , persamaan 15 dapat dituliskan kembali sebagai 2 = ∑ R − R ∗ Y , F dan = ∑ R − R ∗ \ , + 5 , F 17 Fungsi kernel \ , ] yang biasanya digunakan dalam SVR adalah : • Kernel Linier : \ , ] = 〈 , ′〉 • Kernel Polynomial : \ , ] = 〈 , ] 〉 + a b • Kernel Radial Basis Function RBF : \ , ] = c ‖dedf‖g ghg 19

BAB III DATA DAN METODOLOGI PENELITIAN

3.1 Tahapan Penelitian

Proses penelitian dilakukan dengan tahapan-tahapan seperti pada Gambar 7. Mulai Studi Literatur Pengumpulan Data Data SOI Data Hujan Gambar 7 Diagram Alir Penelitian Pemilihan Peubah prediktor untuk prediksi total hujan di musim hujan Hasil Dokumentasi dan Pelaporan Selesai Pembuatan Model dengan JST Pengolahan Data Pelatihan dan Pengujian Model Dataset untuk pelatihan dan pengujian model Pembuatan Model dengan SVR Pengolahan Data Pelatihan dan Pengujian Model Hasil Analisis dan Evaluasi Kinerja Model