Jaringan layar jamak multi layer memecahkan masalah yang lebih rumit dari single layer. Pada jaringan tidak hanya terdiri dari ini terdiri dari input layer, hidden layer
dan output layer. Sebagi contoh terlihat pada gambarberikut:
Gambar 2.2 Arsitektur jaringan layar jamak multilayer Pada Gambar 2.2 memperlihatkan jaringan layar jamak multilayer dengan n buah
input x
1
, x
i
, x
n
, hidden layer yang terdiri dari p buah node z
1
, z
j
, z
p
dan m buah output y
1
, y
j
, y
m
. Pada jaringan layar jamak multilayer kadangkala proses trainingnya lebih rumit.
3. Jaringan reccurent
Model jaringan reccurent mirip dengan jaringan layar tunggal single layer ataupun jaringan layar jamak multilayer. Hanya saja, ada node output yang memberikan
sinyal node input feedback loop. Dengan kata lain sinyalnya mengalir dua arah yaitu maju dan mundur. Seperti terlihat pada gambar berikut:
Gambar 2.3 Arsitektur jaringan reccurent
2.4.4 Jaringan Syaraf Tiruan Backpropagation
Universitas Sumatera Utara
Jaringan syaraf tiruan backpropagation adalah salah satu metode yang dapat diaplikasikan dengan baik dalam bidang peramalan forecasting. Backpropagation melatih jaringan untuk
mendapatkan keseimbangan antara kemampuan jaringan mengenali pola yang digunakan selama fase training serta kemampuan jaringan untuk memberikan respon yang benar
terhadap pola input yang serupa tetapi tidak sama dengan pola yang dipakai selama fase training J.J Siang: 2009.
Backprogation memiliki node yang ada dalam satu atau lebih hidden layer seperti yang terlihat pada gambar berikut:
Gambar 2.4 Jaringan syaraf tiruan backpropagation
Pada Gambar 2.4 merupakan arsitektur backpropagation dengan n buah input ditambah sebuah bias, sebuah hidden layer yang terdiri dari p node ditambah sebuah bias
serta m buah output. Arsitektur ini disebut juga jaringan layar jamak multilayer. Dengan keterangan gambar v
ji
merupakan bobot garis dari node input x
i
ke node hidden layer z
j
vj merupakan bobot garis yang menghubungkan bias di node input ke node hidden layer vj. w
kj
merupakan bobot dari hidden layer z
j
ke node output y
k
w
k0
merupakan bobot dari bias di hidden layer ke node output z
k
.
2.4.5 Fungsi Aktivasi
Dalam JST backpropagation, fungsi aktivasi yang dipakai harus memenuhi beberapa sayarat, yaitu kontinu, terdifferensial dengan mudah, dan merupakan fungsi yang tidak turun. Fungsi
Universitas Sumatera Utara
aktivasi digunakan untuk menentukan output suatu node. Fungsi aktivasi adalah net input kombinasi linier input dan bobotnya. Jika net
maka fungsi aktivasinya adalah f net = f
J.J Siang: 2009.
Beberapa fungsi aktivasi yang dipakai adalah sebagai berikut:
a Fungsi batas ambang Threshold
Fungsi batas ambang sering juga disebut fungsi under biner atau fungsi Heaviside yang terlihat pada gambar berikut:
Gambar 2.5 Fungsi batas ambang Threshold
Fungsi batas ambang dengan nilai ambang 0 dirumuskan sebagai:
= ,
� 1,
≥ �
b Fungsi linier Identitas
Fungsi linier memiliki nilai output yang sama dengan nilai inputnya, fungsi ini dirumuskan sebagai
= , seperti yang terlihat pada gambar berikut:
Universitas Sumatera Utara
Gambar 2.6 Fungsi linier identitas c
Fungsi sigmoid biner Fungsi ini merupakan fungsi yang umum digunakan. Range-nya adalah 0 samapi
dengan 1dan dirumuskan pada persamaan 5 sebagi berikut:
1
=
1 1+
−
5 Dengan turunan persamaan 5 terdapat pada persamaan 6 sebagai berikut:
1 ′
=
1
1 −
1
6
Fungsi sigmoid biner digambarkan sebagai berikut:
Gambar 2.7 Fungsi sigmoid biner
d Fungsi sigmoid bipolar
Universitas Sumatera Utara
Fungsi sigmoid bipolar hampir mirip dengan fungsi sigmoid biner, hanya saja output dari fungsi ini memiliki range antara 1 sampai dengan -1. Fungsi sigmoid bipolar
dirumuskan pada persamaan 7 sebagai berikut:
=
1 −
−
1+
−
7 Dengan turunan persamaan 7 terdapat pada persamaan 8 sebagai berikut:
′
=
1 2
1 + 1 −
8
Fungsi sigmoid bipolar digambarkan sebagai berikut:
Gambar 2.8 Fungsi sigmoid bipolar
Fungsi ini sangat dekat dengan fungsi hyperbolic tangent. Keduanya memiliki range antara -1 dan 1. Untuk fungsi hyperbolic tangent, digunakan rumus pada persamaan 9
sebagai berikut:
=
−
−
+
−
9 Dengan turunan persamaan 9 terdapat pada persamaan 10 sebagai berikut:
′
= 1 + 1 −
10
Universitas Sumatera Utara
2.4.6 Algoritma Pelatihan Training Algorithm