aktivasi keluaran model jaringan juga dapat dipakai sebagai dasar untuk merubah bobot.
Menurut Siang 2009 ada beberapa arsitektur jaringan yang sering dipakai dalam jaringan syaraf tiruan, antara lain :
a. Jaringan Layar Tunggal
Single Layer Network
Dalam  jaringan  ini,  sekumpulan  input  neuron  dihubungkan  langsung dengan  sekumpulan
output-
nya.  Dalam  beberapa  model  misal
perceptron
, hanya ada sebuah unit
neuron outpu
t.
X
1
X
i
X
n
Y
m
Y
j
Y
1
W
11
W
ji
Gambar 2.2 Siang 2009
Gambar di atas menunjukan arsitektur jaringan dengan n unit
input
X dan m unit
output
Y. Dalam jaringan tersebut, semua unit
input
dihubungkan dengan semua unit
output
,  meskipun  dengan  bobot  yang  berbeda-beda.  Tidak  ada  unit
input
yang  dihubungkan  dengan  unit
input
lainnya.  Demikian  pula  dengan  unit
output
. Besaran  w  menyatakan  bobot  hubungan  antara  unit
onput
dengan urut
output
.  Bobot-bobot  ini  aling
independen
.  Selama  proses  pelatihan, bobot-bobot  ini  saling
independen
.  Selama  proses  pelatihan,  bobot-bobot tersebut  akan  dimodifikasi  untuk  meningkatkan  keakuratan  hasi.  Model
semacam ini  tepat
digunakan  untuk pengenalan  pola  karena
kesederhanaannya. PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI
b. Jaringan Layar Jamak
Multi Layer Network
Jaringan  layar  jamak  merupakan  perluasan  dari  layar  tunggal. Dalam jaringan ini, selain unit input dan
output
, ada unit-unit lain sering disebut  layar  tersembunyi.  Dimungkinkan  pula  ada  beberapa  layar
tersembunyi. Sama seperti pada unit
inpu
t dan
output
, unit-unit dalam satu layar tidak saling berhubungan.
X
i
X
n
Z
p
Z
1
X
1
Y
m
Y
j
Y
1
Gambar 2.3 Siang 2009 Gambar  di  atas  adalah  jaringan  dengan  n  buah  unit
input
X sebuah layar tersembunyi yang terdiri dari p buah unit Z dan m buah unit
output Y. Jaringan  ini  dapat  menyelesaikan  masalah  yang  lebih  kompleks
dibandingkan dengan layar tunggal, meskipun kadangkala proses pelatihan lebih kompleks dan lama.
c. Jaringan
Reccurent
Model  jaringan
reccurent
mirip  dengan  jaringan  layar  tunggal ataupun  ganda.  Hanya  saja,  ada
neuron  output
yang  memberikan  sinyal pada unit
input
sering disebut
feedback loop
. Dalam  jaringan  syaraf  tiruan,  fungsi  aktivasi  dipakai  untuk  menentukan
keluaran suatu
neuron
.
Argument
fungsi  aktivasi  adalah
net
masukan kombinasi linear masukan dan bobotnya.
Beberapa fungsi aktivasi yang sering dipakai adalah sebagai berikut : PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI
a. Fungsi
Threshold
batas ambang {
……………………………….. 2.2 Untuk beberapa kasus, fungsi
threshold
yang tidak berharga 0 atau 1, tapi berharga -1 atau 1 sering disebut
threshold
bipolar jadi {
……………………………….. 2.3 b.
Fungsi
Sigmoid
……................……………………………….. 2.4 Fungsi  ini  sering  dipakai  karena  nilai  fungsinya  yang  terletak
antara 0 dan 1 dapat diturunkan dengan mudah. ............……………………………….. 2.5
c. Fungsi Identitas
……….………………………………..2.6
Fungsi identitas sering dipakai apabila kita menginginkan keluaran berupa sembarang bilangan riil bukan hanya pada range [0,1] atau [-1,1]
Kadang-kadang dalam jaringan ditambahkan sebuah unit masukan yang nilainya selalu = 1. Unit yang sedemikian itu disebut bias. Bias dapat
dipandang  sebagai  sebuah  unit  input  yang  nilainya  =  1.  Bias  berfungsi untuk mengubah nilai
threshold
menjadi = 0 bukan = a. jika melibatkan bias, maka keluaran unit penjumlahan adalah
∑ …………………….. 2.7
Fungsi aktivasi
threshold
menjadi : {
…………………………………….. 2.8 PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI
X
1
X
2
1 Y
Gambar 2.4 Siang 2009
2.4.1 Mempercepat Pelatihan Backpropagation
Menurut  Siang  2009  Metode  standar
backpropagation
seringkali terlalu  lambat  untuk  keperluan  praktis.  Beberapa  modifikasi  dilakukan
terhadap  standar
backpropagation
dengan  cara  mengganti  fungsi pelatihannya.
Secara  umum,  modifikasi  dapat  dikelompokan  dalam  dua  kategori. kategori  pertama  adalah  metode  yang  menggunakan  teknik
heuristic
yang dikembangkan  dari  metode  penurunan  tercepat  yang  dipakai  dalam  standar
backpropagation
.  kategori  kedua  adalah  menggunakan  metode  optimasi
numeric
selain  penurunan  tercepat.  Beberapa  metode  yang  dipakai  sebagai modifikasi  adalah  metode
conjugate  gradient,  quasi  Newton,
dan  lain-lain. Dalam  sub  bab  berikut  ini  dibicarakan  dahulu  tentang  beberapa  modifikasi
yang  masuk  dalam  kategori  pertama
backpropagation
dengan  momentum, variabel laju pemahaman, dan
backpropagation resilient
. Berikutnya barulah dibahas tentang beberapa metode yang masuk dalam kategori kedua.
Beberapa  metode  yang  dipakai  untuk  mempercepat  pelatihan
backpropagation
sebagai berikut : PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI
1. Metode penurunan Gradien dengan Momentum traingdm
Modifikasi metode
penurunan tercepat
dilakukan dengan
menambahkan  momentum.  Dengan  momentum,  perubahan  bobot  tidak hanya  didasarkan  atas
error
yang  terjadi  pada
epoch
pada  waktu  itu. Perubahan  bobot  saat  ini  dilakukan  dengan  memperhitungkan  juga
perubahan bobot
pada
epoch
sebelumnya. Dengan
demikian kemungkinan terperangkap ke titik minimum lokal dapat dihindari.
Menurut Hagan dan Demuth 1996 sebelum mengimplementasikan ke  dalam  sebuah  aplikasi  jaringan  syaraf,  akan  dibuktikan  dalam  sebuah
ilustrasi efek penghalusan dengan mempertimbangkan : 2.9
Dimana wk adalah input ke
filter
, yk adalah output dari
filter
dan y adalah koefisien momentum yang harus memenuhi
2.10 Efek  dari
filter
ditunjukan  dengan  gambar  2.5.  Contoh  ini  input diambil dari gelombang sinus :
2.11 Dan koefisien momentum ditetapkan untuk y = 0.9 a dan y = 0.98
b.  Dari  gambar  tersebut  dapat  dilihat  osilasi  dari
output  filter
kurang dari  osilasi  dalam
filter  input
.  Selain  itu,  sebagai  y  meningkat  osilasi dalam
output filter
berkurang. Sangat penting juga memperhatikan bahwa
output  filter
rata-rata  sama  dengan  rata-rata  menyaring  masukan, meskipun sebagai y meningkat
filter output
lebih lambat untuk merespon. PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI
Gambar 2.5. Pengaruh Perubahan Momentum Hagan  Demuth, 1996 Untuk  meringkas,  filter  cenderung  mengurangi  jumlah  perubahan,
sementara  masih  mengikuti  nilai  rata-rata.  Untuk  cara  implementasi dalam  jaringan  syaraf  tiruan,  pertama  menggunakan  parameter  sebagai
berikut : ,
2.12
.
2.13 Ketika
filter
momentum  ditambahkan  untuk  mengganti  parameter, sehingga mendapatkan persamaan perubahan
backpropagation
:
,         Error No text of specified style in document..14
. Error No text of
specified style in document..15
Apabila  menggunakan  persamaan  modifikasi  ini  maka  akan memperoleh hasilnya seperti gambar 2.6.
Gambar 2.6. Lintasan dengan momentum Hagan  Demuth, 1996 PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI
Dari  gambar  2.6.  cenderung  untuk  membuat  lintasan  terus  kearah yang sama. Semakin besar y, semakin cepat t lintasannya.
2. Variabel Laju Pemahaman traingda, traingdx
Dalam  standar
Backpropagatio
n.  Laju  pemahaman  berupa  suatu konstanta  yang  nilainya  tetap  selama  iterasi.  Akibatnya,  untuk  kerja
algoritma  sangat  dipengaruhi  oleh  besarnya  laju  pemahaman  yang dipakai. Secara praktis, sulit untuk menentukan besarnya laju pemahaman
yang  terlalu  besar  maupun  terlalu  kecil  akan  menyebabkan  pelatihan menjadi lambat.
Pelatihan  akan  lebih  cepat  apabila  laju  pemahaman  dapat  diubah ubah  besarnya  selama  proses  pelatihan.  Jika
error
sekarang  lebih  besar dibandingkan
error
sebelumnya,  maka  laju  pemahaman  diturunkan.  Jika sebaliknya,  maka  laju  pemahaman  diperbesar.  Dengan  demikian  laju
pemahaman dapat dibuat sebesar besarnya dengan tetap mempertahanlan kestabilan proses.
Menurut Hagan dan Demuth 1996, ada banyak pendekatan untuk mengubah
learning  rate
laju  pemahaman.  Salah  satunya  dengan  cara yang paling mudah, dimana
learning  rate
berubah berdasarkan performa sebuah  algoritma.  Aturan  untuk  variabel
learning  rate  backpropagation
adalah sebagai berikut : a.
Jika
error
kuadrat  pada  semua  training  set  meningkat  lebih  dari presentase  yang  ditentukan  umumnya  satu  hingga  lima  persen
setelah perubahan bobot, maka perubahan bobot diabaikan,
learning rate
dikalikan  dengan  faktor  0    p    1,  dan  koefisien  momentum  y jika digunakan diberi nilai nol.
b. Jika  error  kuadrat  berkurang  setelah  perubahan  bobot,  maka
perubahan  bobot  diterima  dan  learning  rate  dikalikan  dengan  faktor
jika y sebelumnya diberi nilai nol, maka akan diubah menjadi nilai aslinya.
c.
Jika error kuadrat meningkat namun kurang dari
, maka perubahan bobot diterima tetapi
learning rate
dan koefisien momentum tidak berubah.
Dengan menggunakan parameter awal yang telah digunakan pada gambar 2.6 dan menambahkan parameter baru :
,         ,  dan        ,
maka  akan  didapatkan  hasil  seperti  pada gambar 2.7.
Gambar 2.7. Lintasan variabel
Learning Rate
Hagan  Demuth, 1996 3.
Resilent Backpropagation
trainrp Jaringan
backpropagation
umumnya menggunakan fungsi  aktivasi
sigmoid
.  Fungsi
sigmoid
akan  menerima  masukan  dari
range
tak berhingga menjadi keluaran pada
range
[   ]. Semakin jauh titik dari ,  semakin  kecil  gradiennya.  Pada  titik  yang  cukup  jauh  dari       ,
gradiennya  mendekati  0.  Hal  ini  menimbulkan  masalah  pada  waktu
menggunakan metode penurunan tercepat yang iterasinya didasarkan atas gradien.  Gradien  yang  kecil  menyebabkan  perubahan  bobot  juga  kecil,
meskipun masih jauh dari titik optimal. Masalah  ini  diatasi  dalam
resilient  backpropagation
dengan  cara membagi  arah  dan  perubahan  bobot  menjadi  dua  bagian  yang  berbeda.
Ketika  menggunakan  penurunan  tercepat,  yang  diambil  hanya  arahnya saja. Besarnya perubahan bobot dilakukan dengan cara lain Siang, 2009.
4. Gradien Conjugate traincgf, traincgp, traincgb
Dalam  standar
backpropagation
,  bobot  dimodifikasi  pada  arah penurunan tercepat. Meskipun penurunan fungsi berjalan cepat, tapi tidak
menjamin  akan  konvergen  dengan  cepat.  Dalam  algoritma  gradien
conjugate
, pencarian dilakukan sepanjang arah
conjugate
. Dalam banyak kasus,  pencarian  ini  lebih  cepat.  Ada  berbagai  metode  pencarian  yang
dilakukan  berdasarkan  prinsip  gradien
conjugate
,  antara  lain
Fletcher- Reeves
„traincgf‟,
Polak-Ribiere
„traincgp‟,
Powel Beale
„traincgb‟. Menurut  Hagan    Demuth  1996,  langkah-langkah  dalam
gradien
conjugate
adalah sebagai berikut : a.
Memilih arah pencarian pertama menjadi gradien negatif
, Error No text of specified
style in document..16
b. Kemudian  memilih
learning  rate
untuk  meminimalisasi  fungsi bersamaan dengan arah pencarian :
, Error No text of specified
style in document..17
c. Lalu memilih arah pencarian selanjutnya berdasarkan persamaan
, Error No text of specified
style in document..18
dengan persamaan berikut ini untuk menghitung nilai
atau atau
Error No text of specified style in document..19
Jika algoritma belum
konvergen
maka lanjut pada langkah ke-2.
2.5. Backpropagation propagasi balik
Backpropagation
merupakan  suatu  teknik  pembelajaran  atau  pelatihan jenis
supervised learning
yang sering digunakan. Metode ini merupakan salah satu PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI
W
10
W
k0
W
m0
W
11
W
k1
W
m1
W
1j
W
kj
W
mj
W
1p
W
kp
W
mp
V
10
V
j0
V
p0
V
11
V
1i
V
p1
V
11
V
ji
V
pi
V
1n
V
jn
V
pn
metode  yang  sangat  baik  dalam  menangani  masalah  pengenalan  pola  yang kompleks.
Backpropagation
memiliki  beberapa  unit  yang  ada  dalam  satu  atau  lebih layar tersembunyi. Gambar 2.5 adalah arsitektur
backpropagation
dengan n buah masukan ditambah sebuah bias, sebuah layar tersembunyi yang terdiri dari p unit
ditambah sebuah bias, serta m buah unit keluaran. V
ji
merupakan bobot garis dari unit masukan X
i
ke unit layar tersembunyi Z
j
V
j0
merupakan bobot garis yang menghubungkan bias di unit masukan ke unit layar tersembunyi Z
j
. W
kj
merupakan bobot dari unit layar tersembunyi Z
j
ke unit keluaran Y
k
W
k0
merupakan bobot dari bias di layar tersembunyi ke unit keluaran Z
k
Gambar 2.5 Siang 2009 Dalam
Backpropagation
,  fungsi  aktivasi  yang  dipakai  harus  memenuhi beberapa  syarat  yaitu  :  kontinu,  terdiferensial  dengan  mudah  dan  merupakan
fungsi  yang  tidak  turun.  Salah  satu  fungsi  yang  memenuhi  ketiga  syarat  tersebut sehingga sering dipakai adalah fungsi
sigmoid biner
yang memiliki range 0,1.
Y
1
Y
k
Y
m
Z
1
Z
j
Z
p
1
X
1
X
i
X
n
1