Fungsi symetric saturating linear dirumuskan sebagai :
≤ −
≤ ≤
− ≥
= 1
; 1
1 1
; 1
; 1
jikaX x
jika x
jikaX y
h. Fungsi Sigmoid Biner
Fungsi ini digunakan untuk jaringan syaraf yang dilatih dengan menggunakan metode backpropagation. Fungsi sigmoid biner memiliki nilai pada range 0
sampai 1. Oleh karena itu, fungsi ini sering digunakan untuk jaringan syaraf yang membutuhkan nilai output yang terletak pada interval 0 sampai 1.
Namun, fungsi ini bisa juga digunakan oleh jaringan syaraf yang nilai outputnya 0 atau 1.
Fungsi sigmoid biner dirumuskan sebagai :
x
e x
f y
σ −
+ =
= 1
1
Dengan : ]
1 [
x f
x f
x f
− =
σ 43
i. Fungsi Sigmoid Bipolar
Fungsi sigmoid bipolar hampir sama dengan fungsi sigmoid biner, hanya saja output dari fungsi ini memiliki range antara 1 sampai -1
Fungsi sigmoid bipolar dirumuskan sebagai :
x x
e e
x f
y
− −
+ −
= =
1 1
Dengan :
[ ][
]
1 1
2 x
f x
f x
f −
+ = σ
Fungsi ni sangat dekat dengan fungsi hyperbolic tangent. Keduanya memiliki range antara -1 sampai 1. Untuk fungsi hyperbolic tangent, dirumuskan
sebagai :
x x
x x
e e
e e
x f
y
− −
+ −
= =
Atau :
x x
e e
x f
y
2 2
1 1
− −
+ −
= =
Dengan :
[ ][
]
1 1
x f
x f
x f
− +
=
2.1.8.6. Proses Pembelajaran
Terdapat dua tipe pembelajaran dalan Jaringan Syaraf Tiruan, yaitu : Kusumadewi, 2003
a. Pembelajaran terawasi supervised learning
Metode pembelajaran pada jaringan syaraf disebut terawasi jika output yang diharapkan telah diketahui sebelumnya. Pada proses pembelajaran, satu pola
input akan diberikan ke satu neuron pada lapisan input. Pola ini akan dirambatkan di sepanjang jaringan syaraf hingga sampai ke neuron pada
lapisan output. Lapisan output ini akan membangkitkan pola output yang nantinya akan dicocokkan dengan pola output targetnya. Apabila terjadi
perbedaan antara pola output hasil pembelajaran dengan pola target, maka disini akan muncul error. Apabila nilai error ini masih cukup besar,
mengindikasikan bahwa masih perlu dilakukan lebih banyak pembelajaran lagi.Terdapat berbagai tipe pembelajaran terawasi beberapa diantaranya Hebb
Rule, Perceptron, Delta Rule, Backpropagation, Heteroassociative Memory, Bidirectional Associative Memory BAM, Learning Vector Quantization
LVQ. Penelitian ini akan menggunakan propagasi balik backpropagation
sebagai metode pembelajaran. Propagasi balik merupakan algoritma pembelajaran yang terawasi dan biasanya digunakan oleh perceptron dengan
banyak lapisan untuk mengubah bobot-bobot yang terhubung dengan neuron- neuron yang ada pada lapisan tersembunyinya. Algoritma propagasi balik
menggunakan error output untuk mengubah nilai bobot-bobotnya dalam arah mundur backward. Untuk mendapatkan error ini, tahap perambatan maju
forward propagation harus dikerjakan terlebih dahulu. Pada saat perambatan maju, neuron-neuron diaktifkan dengan menggunakan fungsi aktivasi sigmoid,
yaitu :
x
e x
f
−
+ =
1 1
Algoritma backpropagation : •
Inisialisasi bobot ambil bobot awal dengan nilai random yang cukup kecil. •
Kerjakan langkah-langkah berikut selama kondisi berhenti bernilai FALSE : 1. Untuk tiap-tiap pasangan elemen yang akan dilakukan pembelajaran,
kerjakan : Feedforward :
a. Tiap-tiap unit input X
i
, i=1,2,3,...,n menerima sinyal x
i
dan meneruskan sinyal tersebut ke semua unit pada lapisan yang ada
diatasnya lapisan tersembunyi. b. Tiap-tiap unit tersembunyi Z
j
, j=1,2,3,...,p menjumlahkan sinyal- sinyal input terbobot :
∑
=
+ =
n i
ij i
j j
v x
v in
z
1
_ Gunakan fungsi aktivasi untuk menghitung sinyal outputnya :
Z
j
= fz_in
j
Dan kirimkan sinyal tersebut ke semua unit di lapisan atasnya unit-unit output.
c. Tiap-tiap unit output Y
k
, k=1,2,3,...,m menjumlahkan sinyal- sinyal input terbobot.
∑
=
+ =
p i
jk i
k j
w z
w in
y
1
_ 46
Gunakan fungsi aktivasi untuk menghitung sinyal outputnya : y
k
=fy_in
k
Dan kirimkan sinyal tersebut ke semua unit dilapisan atasnya unit- unit output.
Backpropagation d. Tiap-tiap unit output Yk, k=1,2,3,...,m menerima target pola yang
berhubungan dengan pola input pembelajaran, hitung informasi error nya :
_
k k
k k
in y
f y
t ′
− =
δ Kemudian hitung koreksi bobot yang nantinya akan digunakan
untuk memperbaiki nilai w
jk
:
j k
jk
z W
α δ =
∆ Hitung juga koreksi bias yang nantinya akan digunakan untuk
memperbaiki nilai w
0k
:
k k
w α δ
= ∆
Kirimkan δ
k
ini ke unit-unit yang ada dilapisan bawahnya. e. Tiap-tiap unit tersembunyi Z
j
, j=1,2,3,...,p menjumlahkan delta inputnya dari unit-unit yang berada pada lapisan diatasnya :
∑
=
=
m i
jk k
j
w in
1
_ δ
δ
Kalikan nilai ini dengan turunan dari fungsi aktivasinya untuk menghitung informasi error :
_ _
j j
j
in z
f in
′ =
δ δ
Kemudian hitung koreksi bobot yang nantinya akan digunakan untuk memperbaiki nilai v
ij
:
i j
jk
x v
α δ =
∆ Kemudian hitung koreksi bias yang nantinya akan digunakan
untuk memperbaiki nilai v
0j
:
j j
v α δ
= ∆
f. Tiap-tiap unit output Y
k
, k=1,2,3,...,m memperbaiki bias dan bobotnya j=0,1,2,...,p:
jk jk
jk
w lama
w baru
w ∆
+ =
Tiap-tiap unit tersembunyi Zj, j=1,2,3,...,p memperbaiki bias dan bobotnya i=0,1,2,...,n
ij ij
ij
w lama
v baru
v ∆
+ =
2. Tes Kondisi berhenti
b. Pembelajaran tak terawasi unsupervised learning