i. Fungsi Sigmoid Bipolar
Fungsi sigmoid bipolar hampir sama dengan fungsi sigmoid biner, hanya saja output dari fungsi ini memiliki range antara 1 sampai -1
Fungsi sigmoid bipolar dirumuskan sebagai :
x x
e e
x f
y
− −
+ −
= =
1 1
Dengan :
[ ][
1 1
2 x
f x
f x
f −
+ =
]
σ
Fungsi ini sangat dekat dengan fungsi hyperbolic tangent. Keduanya memiliki range antara -1 sampai 1. Untuk fungsi hyperbolic tangent, dirumuskan
sebagai :
x x
x x
e e
e e
x f
y
− −
+ −
= =
Atau :
x x
e e
x f
y
2 2
1 1
− −
+ −
= =
Dengan :
[ ][
]
1 1
x f
x f
x f
− +
=
2.2.4. Proses Pembelajaran
Terdapat dua tipe pembelajaran dalan Jaringan Syaraf Tiruan, yaitu : a.
Pembelajaran terawasi supervised learning Metode pembelajaran pada jaringan syaraf disebut terawasi jika output
yang diharapkan telah diketahui sebelumnya. Pada proses pembelajaran, satu pola
Universitas Sumatera Utara
input akan diberikan ke satu neuron pada lapisan input. Pola ini akan dirambatkan di sepanjang jaringan syaraf hingga sampai ke neuron pada lapisan output.
Lapisan output ini akan membangkitkan pola output yang nantinya akan dicocokkan dengan pola output targetnya. Apabila terjadi perbedaan antara pola
output hasil pembelajaran dengan pola target, maka disini akan muncul error. Apabila nilai error ini masih cukup besar, mengindikasikan bahwa masih perlu
dilakukan lebih banyak pembelajaran lagi. Terdapat berbagai tipe pembelajaran terawasi beberapa diantaranya Hebb Rule, Perceptron, Delta Rule,
Backpropagation, Heteroassociative Memory, Bidirectional Associative Memory BAM, Learning Vector Quantization LVQ.
Penelitian ini akan menggunakan propagasi balik backpropagation sebagai metode pembelajaran. Metode propagasi balik merupakan algoritma pembelajaran
yang terawasi dan biasanya digunakan oleh perceptron dengan banyak lapisan untuk mengubah bobot-bobot yang terhubung dengan neuron-neuron yang ada
pada lapisan tersembunyinya. Algoritma propagasi balik menggunakan error output untuk mengubah nilai bobot-bobotnya dalam arah mundur backward.
Untuk mendapatkan error ini, tahap perambatan maju forward propagation harus dikerjakan terlebih dahulu. Pada saat perambatan maju, neuron-neuron
diaktifkan dengan menggunakan fungsi aktivasi sigmoit. Siang, 2005. Algoritma backpropagation :
♦ Masing-masing unit masukan Xi, i = 1,….n menerima sinyal masukan X
i
dan sinyal tersebut disebarkan ke unit-unit bagian berikutnya unit-unit lapisan tersembunyi
Universitas Sumatera Utara
♦ Masing-masing unit dilapisan tersembunyi dikalikan dengan faktor penimbang
dan dijumlahkan serta ditambah dengan biasanya.
∑
= −
+ =
n i
n oj
i
v X
V in
Z
1 1
2.1 Kemudian menghitung sesuai dengan fungsi aktifasi yang digunakan:
Z
1
= f Z_in
1
2.2 ♦
Masing-masing unit keluaran y
k
., k = 1, 2, 3 …..m dikalikan dengan faktor penimbang dan dijumlahkan:
∑
= −
+ =
p p
n oj
i
W Z
W in
Z
11 1
2.3 Menghitung kembali sesuai dengan fungsi aktifasi
y
k
= f y_in
1
2.4 Back Propgasi dan Galatnya
♦ Masing-masing unit keluaran Y
k ,
k =1,……m menerima pola target sesuai dengan pola masukan saat pelatihan training dan dihitung galatnya:
δ
k
= f
k
– y
k
f y_in
k
2.5 Karena f’ y_in
k
= y
k
menggunakan fungsi sigmoid, maka: F y_in
k
= f y_in
k
1 – f y_in
k
2.6 Menghitung perbaikan faktor penimbang kemudian untuk memperbaiki w
jk
. Δ W
kj
= α.δ
k
. Z
1
2.7 Menghitung perbaikan koreksi:
Δ W
ok
= α.δ
k
2.8 Dan menggunakan nilai
δ
k
pada semua unit lapisan sebelumnya.
Universitas Sumatera Utara
♦ Masing-masing penimbang yang menghubungkan unit-unit lapisan
keluaran dengan unit-unit pada lapisan tersembunyi Z
j
, j = 1…,p dikalikan delta dan dijumlahkah sebagaimana masukan ke unit-unit lapisan
berikutnya. 2.9
∑
=
∂ =
∂
n k
jk k
W in
1 1
_ Selanjutnya dikalikan dengan turunan dari fungsi aktifasinya untuk menghitung
galat. δ
1
= δ_ in
1
f y_in
1
2.10 Kemudian menghitung perbaikan penimbang digunakan untuk memperbaiki V
ij
. Δ V
y =
αδ
1
X
1
2.11 Kemudian menghitung perbaikan bias untuk memperbaiki V
oj
Δ V
oj
= αδ
1
2.12 Memperbaiki penimbang dan bias
♦ Masing-masing keluaran unit y
k
, k = 1,…………m diperbaiki bias dan penimbangnya j = 0, ……P.
W
jk
baru = V
jk
lama + Δ V
jk
2.13 Masing-masing unit tersembunyi Z
j
, j : 1,…….p diperbaiki bias dan penimbangnya j=0,…..n.
V
jk
baru = V
jk
lama + Δ V
jk
2.14 •
Uji kondisi pemberhentian akhir iterasi
Universitas Sumatera Utara
b. Pembelajaran tak terawasi unsupervised learning
Pembelajaran tak terawasi tidak memerlukan target output. Pada metode ini, tidak dapat ditentukan hasil yang seperti apakah yang diharapkan selama
proses pembelajaran. Selama proses pembelajaran, nilai bobot disusun dalam suatu range tertentu tergantung pada nilai input yang diberikan. Tujuan
pembelajaran ini adalah mengelompokkan unit-unit yang hampir sama dengan suatu area tertentu. Pembelajaran ini biasanya sangat cocok untuk
pengelompokan klasifikasi pola.Contoh metode pembelajaran tak terawasi adalah jaringan kohonen kohonen network. Suyanto.,2008
2.3. Matlab 2.3.1. Pengertian Matlab