2.3 JST Propagasi Balik
JST propagasi balik merupakan salah satu model JST yang popular dan tangguh. JST ini menggunakan arsitektur yang mirip denga n arsitektur JST multi layer perceptron
dengan satu atau lebih lapisan tersembunyi diantara lapisan masukan dan lapisan keluaran. JST propagasi balik menggunakan metode pembelajaran terawasi supervised
training Rich dan Knight, 2001. JST propagasi balik tidak memiliki hubungan umpan balik feedback, artinya
suatu lapisan layer tidak memiliki hubungan dengan lapisan sebelumnya sehingga bersifat umpan maju feedforward, namun galat yang diperoleh diumpankan kembali ke
lapisan sebelumnya selama proses pelatihan, kemudian dilakukan penyesuaian bobot. Gambar 7 merupakan arsitektur JST propagasi balik dengan satu lapisan input unit –
unit
i
X , satu lapisan tersembunyi unit-unit
i
H dan satu lapisan output unit – unit
i
O . Neuron – neuron pada lapisan yang sama tidak saling berhubungan, tetapi pada lapisan
yang berbeda saling berhubungan fully interconnected. Lapisan input berfungsi untuk meneruskan input dan tidak melakukan komputasi, sedangkan lapisan tersembunyi dan
lapisan output melakukan komputasi. Umumnya, neuron-neuron yang terletak pada lapisan yang sama akan memiliki
keadaan yang sama. Faktor terpenting dalam menentukan kelakuan suatu neuron adalah fungsi aktivasi dan pola bobotnya. Pada lapisan yang sama, neuron-neuron akan
memiliki aktivasi yang sama.
Sumber: Kusumadewi 2003 Gambar 7. Arsitektur jaringan propagasi balik
Menurut Rich dan Knight 2001 algoritma yang dipakai pada JST propagasi balik adalah sebagai berikut :
1 Tentukan matrik
A
X sebagai lapisan input, vector
C
O sebagai lapisan output dengan C sebagai banyak unit neuronnya, dan matrik
B
H sebagai lapisan terselubung dengan B unit neuron. Tingkat aktivasi masing – masing lapisan
adalah -
A
X sebagai tingkat aktivasi pada lapisan input -
B
H sebagai tingkat aktivasi pada lapisan terselubung -
C
O sebagai tingkat aktivasi pada lapisan output Normalisasi nilai input
A
X dan target
C
Y dalam selang [0..1] 2 Bobot yang menghub ungkan masing – masing layer adalah:
-
AB
ω merupakan bobot yang menghubungkan lapisan input dengan lapisan
terselubung X
X
1
X
2
O
1
O
2
O
3
H
H
1
Input Layer Hidden Layer
Output Layer Bobot Matrik 2
Bobot Matrik 1
N i
l a
i
I n
p u
t
-
BC
V merupakan bobot yang menghubungkan lapisan terselubung dengan
keluaran. Tiap-tiap bobot harus bernilai acak dengan nilai antara -1 dan 1
3 Inisialisasi aktivasi unit ambang, dimana nilai unit ini bersifat tetap dan tidak berubah, yaitu:
- X = 1.0 -
H = 1.0 4 Propagasi nilai aktivasi mulai dari unit-unit lapisan input ke unit-unit lapisan
terselubung dengan menggunakan fungsi aktivasi :
1 1
∑ +
=
−
i ij
x B
e H
ω
;……………………………… 3
dimana : i = 0,……A
j = 1,…….B X = selalu bernilai 1 satu
j
ω = merupakan bobot threshold untuk unit ke-j lapisan terselubung
5 Propagasikan aktiva si dari unit – unit lapisan terselubung ke unit – unit lapisan output dengan fungsi aktivasi :
1 1
∑ +
=
−
j jk
h V
c
e O
;….………………………………….. 4
dimana : i = 0,……B
j = 1,…….C h = selalu bernilai 1 satu
k
V = merupakan bobot threshold unit ke- k lapisan output
6 Hitung besar error ä
k
keluaran yang dihasilkan oleh lapisan output. Error merupakan selisih antara output aktual network O
k
dengan target y
k
.
k k
k k
k
O y
y O
− −
= 1
δ k=1,..C; …………………………... 5
7 Hitung besar error ä
j
unit- unit neuron pada lapisan terselubung sebagai berikut:
∑
− =
jk k
j j
j
H H
ω δ
δ 1
; j=1,...,B ....................................... 6
8 Sesuaikan bobot unit- unit neuron antara lapisan terselubung dengan lapisan output dengan memberikan niali learning rate â yang menentukan kecepatan
jaringan untuk melakukan training.
j k
jk
H v
βδ =
∆ ......................................................................
7.a
j k
jk jk
H V
V βδ
+ =
................................................................. 7.b
dimana j= 0,…..,B dan k= 1,…., C
9 Sesuaikan bobot unit- unit neuron antara lapisan input dengan lapisan terselubung
i jk
x βδ
ω = ∆
......................................................................... 8.a
i jk
jk
x βδ
ω ω
+ =
............................................................. ….. 8.b
dimana i=0, …, A dan j= 1,…., B
10 Kembali ke langkah 4 dan ulangi sampai dengan langkah 10, proses dihentikan sampai dengan O
k
mendekati y
k
, dengan menentukan nilai E0.0001.
2.4 Penerapan metode JST di bidang perikanan dan kelautan