Southern Oscillation Index SOI

setiap unit pada lapisan tersembunyi. Nilai δ j ini tidak perlu dirambatkan balik ke unit-unit pada lapisan input, namun digunakan untuk memperbaharui bobot pada jalur antara lapisan input dan lapisan tersembunyi. Setelah seluruh faktor δ dihitung, bobot dari seluruh lapisan diperbaharui secara simultan. Penyesuain bobot w jk dari unit tersembunyi Z j ke unit output Y k didasarkan pada faktor δ k dan nilai aktivasi z j dari unit tersembunyi Z j . Penyesuain bobot v ij dari unit input X i ke unit tersembunyi Z j didasarkan pada faktor δ j dan nilai aktivasi x i dari unit input. Nomenklatur yang digunakan pada penjelasan proses pembelajaran disini adalah sebagai berikut : x : vektor masukan untuk pelatihan, x = x 1 , …, x i , …., x n t : vektor target keluaran , t = t 1 , …, t k , …., t m δ j : informasi kesalahan untuk unit ke-j pada lapisan tersembunyi δ k : informasi kesalahan untuk unit ke-k pada lapisan output α : laju pembelajaran Xi : Unit ke-i pada lapisan input; Pada unit input, sinyal masukan dan sinyal keluarannya sama, yaitu x i . v 0j : bias untuk unit ke-j pada pada lapisan tersembunyi v ij : bobot pada penghubung antara unit ke-i pada lapisan input dan unit ke-j pada lapisan tersembunyi Zj : Unit ke-j pada lapisan tersembunyi; Masukan pada unit tersembunyi Z j dinyatakan dengan z_in j : ∑ = + = n i ij i j j v x v in z 1 _ 2 Sedangkan sinyal keluaran aktivasi dari Z j dinotasikan dengan z j : _ j j in z f z = 3 w 0k : bias untuk unit ke-k pada lapisan output w jk : bobot penghubung antara unit ke-j pada lapisan tersembunyi dan unit ke-k pada lapisan output Y k : Unit ke-k pada lapisan output; Masukan pada unit output Y k dinyatakan dengan y_in k : ∑ = + = p j jk j k k w z w in y 1 _ 4 Sedangkan sinyal keluaran aktivasi dari unit Y k dinotasikan dengan y k : _ k k in y f y = 5 Algoritma pelatihan JST backpropagation secara lengkap dapat dilihat di Lampiran 1.

2.4.3 Fungsi Aktivasi

Fungsi aktivasi merupakan fungsi yang menentukan level aktivasi, atau keadaan internal sebuah neuron dalam jaringan saraf tiruan, yang merupakan sebuah fungsi dari masukan yang diterima neuron tersebut. Pada JST backpropagation, fungsi aktivasi yang digunakan harus memenuhi karakteristik tertentu, yaitu kontinyu, terdiferensial dan fungsi yang tidak turun monoton. Fungsi-fungsi aktivasi yang sering digunakan adalah Sigmoid Biner , yang mempunyai range output [0, 1] : x e x f − + = 1 1 6 Sigmoid Bipolar , dengan range [-1,1] : 1 1 2 − + = − x e x f 7 Linie r, dengan range output tidak terbatas : x x f = 8 Linier Positif , dengan range dari 0 hingga tidak terbatas positif : = , untuk 0 0, untuk ≤ 0 9 Ilustrasi grafis untuk fungsi-fungsi aktivasi tersebut dapat dilihat pada Gambar 4. a Fungsi Sigmoid Biner b Fungsi Sigmoid Bipolar c Fungsi Linier d Fungsi Linier Positif Gambar 4 Fungsi aktivasi Sigmoid Biner, Sigmoid Bipolar, Linier dan Linier Positif