2.3. Model Jaringan Syaraf Tiruan
Jaringan Syaraf Tiruan JST adalah model sistem komputasi yang bekerja seperti sistem syaraf biologis pada saat berhubungan dengan dunia luar, nama
jaringan syaraf tiruan merupakan terjemahan dari Artificial Neural Network. Terjemahan yang diambil bukan jaringan syaraf buatan seperti dalam
menterjemahkan Artificial Inteligent AI. Penggunaan kata buatan dapat memberikan konotasi, bahwa manusia berusaha membuat jaringan syaraf aslinya. Padahal maksud
dari JST adalah membuat model sistem komputasi yang dapat menirukan cara kerja jaringan syaraf biologis Jong Jek Siang, 2005.
Menurut Sri Kusumadewi,2003 Model JST yang digunakan dalam penelitian ini adalah arsitektur feedforward umpan maju. Sedangkan konsep belajar yaitu
algoritma belajar backpropagation momentum yang merupakan perkembangan dari algoritma belajar backpropagation standar.
Prinsip kerja dari JST adalah suatu sistem pemrosesan informasi yang cara kerjanya memiliki kesamaan tertentu dengan jaringan syaraf biologis. Sebagai ilustrasi, sistem
JST dapat dijelaskan dengan Gambar 2.2.
Σ
Sum Fungsi
Aktivasi f
w j,i=1 w j,i=2
w j,i= 3
w j,i=
Np x i=1
x i=2 x i=3
x i=Np y j,k
=1 y j,k=2
y j,k= 3
Gambar 2.2. Konsep pemodelan jaringan saraf tiruan
Universitas Sumatera Utara
Proses arus informasi dalam sistem JST di atas dimulai dari node-node input. Untuk mencerminkan tingkat kekuatan hubungan ini, digunakan faktor pembobot weight,
sehingga yang diterima oleh node-node di lapisan tersembunyi adalah signal terbobot weigthed signal yaitu xiW
j,i
dimana W
j,i
merupakan besaran bobot hubungan dari node input i menuju node tersembunyi ke-j. Tiap neuron menerima signal output dari
berbagai neuron lainnya dan mengeluarkan output nya dengan menghitung tingkat level aktivitas yang masuk adalah :
∑
= =
=
Np i
i i
j i
j
W x
I
1 ,
................................................ 2.1
Jika input bersih cukup kuat untuk mengaktifkan node j, maka output dari node tersebut adalah :
j j
I f
y =
........................................................... 2.2
Dengan : N
p
= jumlah
node yang masuk dari lapisan sebelumnya ke node yang dituju
x
i
= signal input dari node input ke i=1, 2, ... , N
p
. W
j,i
= besarnya bobot node ke i ke node j. I
j
= total signal bobot bersih yang masuk ke node j f
= fungsi aktivasi y
j
= signal output node j Neuron-neuron dikelompokkan dalam lapisan-lapisan dimana neuron yang terletak
pada lapisan yang sama akan memiliki keadaan yang sama. Jaringan dengan banyak
Universitas Sumatera Utara
lapisan memiliki 1 atau lebih lapisan yang terletak diantara lapisan input dan lapisan output memiliki 1 atau lebih lapisan tersembunyi, Umumnya, ada lapisan bobot-
bobot yang terletak antara 2 lapisan yang bersebelahan. Arsitektur jaringan yang sederhana adalah jaringan layar tunggal yang
menghubungkan langsung neuron-neuron pada layar input dengan neuron-neuron pada layar output. Sedangkan arsitektur jaringan yang lebih kompleks terdiri dari
layar input, beberapa layar tersembunyi dan layar output. Arsitektur seperti ini disebut juga jaringan layar jamak Rumelhart, et al. 1986. Jaringan layar jamak lebih
sering digunakan karena dapat menyelesaikan masalah yang lebih kompleks dibandingkan jaringan layar tunggal, meskipun proses pelatihannya lebih komplek
dan lebih lama Haykin, 1999. Pada Algoritma Quickpropagation dilakukan pendekatan dengan asumsi bahwa
masing-masing bobot penghubung tidak terpengaruh oleh bobot yang lain. Perubahan algoritma quickpropagation dirumuskan sebagai berikut:
W
jibaru
= W
jilama
+ C t
jp
– x
jp
a
i
Dengan : C = kecepatan belajar
t
jp
= nilai keluaran yang diinginkan unit j setelah diberikan pola p pada lapisan masukan.
x
jp
= nilai keluaran yang dihasilkan unit j setelah diberikan pola p pada lapisan masukan.
a
i
= masukan yang berasal dari unit I.
Universitas Sumatera Utara
Hingga saat ini jaringan saraf tiruan telah memiliki beberapa aplikasi yang banyak digunakan dalam kehidupan manusia. Aplikasi yang sering digunakan antara lain:
a. Pengenalan
Jaringan saraf tiruan dapat dipakai untuk mengenali beberapa pola seperti huruf, angka, suara, bahkan tanda tangan. Hal ini sangat mirip dengan otak manusia
yang mampu mengenali seseorang, tentu saja yang pernah berkenalan dengan kita.
b. Pengolahan
sinyal Jaringan saraf tiruan terutama model ADALINE adaptive linear newton dapat digunakan untuk menekan derau noise dalam saluran telepon.
c. Peramalan
Jaringan saraf tiruan juga dapat dipakai untuk meramalkan apa yang terjadi di masa depan berdasarkan pola yang terbentuk di masa lampau. Hal ini dapat
dilakukan karena kemampuan jaringan saraf tiruan untuk mengingat dan membuat generalisasi dari apa yang sudah ada sebelumnya.
Selain aplikasi-aplikasi yang telah disebutkan, jaringan saraf tiruan juga memiliki banyak aplikasi yang menjanjikan seperti dalam bidang kontrol, kedokteran, dan lain-
lain. Akan tetapi hal yang perlu diingat adalah jaringan saraf tiruan juga memiliki beberapa keterbatasan. Pertama adalah ketidakakuratan hasil yang diperolah karena
jaringan saraf tiruan bekerja berdasarkan pola yang terbentuk pada input yang diberikan. Jadi pada dasarnya jaringan saraf tiruan merupakan ilmu komputasi yang
disebut soft computing dengan menggunakan otak manusia sebagai analoginya.
Universitas Sumatera Utara
Ada beberapa fungsi aktivasi yang sering digunakan dalam jaringan syaraf tiruan, antara lain :
a. Fungsi Sigmoid Biner
Fungsi ini digunakan untuk jaringan syaraf yang dilatih dengan menggunakan metode backpropagation. Fungsi sigmoid biner memiliki nilai pada range 0
sampai 1. Oleh karena itu, fungsi ini sering digunakan untuk jaringan syaraf yang membutuhkan nilai output yang terletak pada interval 0 sampai 1. Namun, fungsi
ini bisa juga digunakan oleh jaringan syaraf yang nilai outputnya 0 atau 1. Fungsi sigmoid biner dirumuskan sebagai :
x
e x
f y
σ
−
+ =
= 1
1
Dengan :
] 1
[ x
f x
f x
f −
=
σ b.
Fungsi Sigmoid Bipolar Fungsi sigmoid bipolar hampir sama dengan fungsi sigmoid biner, hanya saja
output dari fungsi ini memiliki range antara 1 sampai -1 Fungsi sigmoid bipolar dirumuskan sebagai :
x x
e e
x f
y
− −
+ −
= =
1 1
Dengan :
[ ][
1 1
2 x
f x
f x
f −
+ =
]
σ
Fungsi ini sangat dekat dengan fungsi hyperbolic tangent. Keduanya memiliki range antara -1 sampai 1. Untuk fungsi hyperbolic tangent, dirumuskan sebagai :
Universitas Sumatera Utara
x x
x x
e e
e e
x f
y
− −
+ −
= =
Atau :
x x
e e
x f
y
2 2
1 1
− −
+ −
= =
Dengan :
[ ][
]
1 1
x f
x f
x f
− +
= Jaringan neuron atau neural network JST menggambarkan sistem kerja jaringan
syaraf, dimana terdapat beberapa lapis neuron, yang terdiri dari lapis masukan atau input lapis proses atau tengah hidden layer dan lapis keluaran atau output.
Tiap lapis neuron terdiri dari satu atau beberapa node. Dimana dalam masing masing node dilakukan pemrosesan atau pengolahan dari input yang akan keluar berupa
output. Algoritma backpropagation :
a. Masing-masing unit masukan Xi, i = 1,….n menerima sinyal masukan X
i
dan sinyal tersebut disebarkan ke unit-unit bagian berikutnya unit-unit lapisan
tersembunyi b.
Masing-masing unit dilapisan tersembunyi dikalikan dengan faktor penimbang dan dijumlahkan serta ditambah dengan biasanya.
∑
= −
+ =
n i
n oj
i
v X
V in
Z
1 1
2.1 Kemudian menghitung sesuai dengan fungsi aktifasi yang digunakan:
Z
1
= f Z_in
1
2.2
Universitas Sumatera Utara
c. Masing-masing unit keluaran y
k
., k = 1, 2, 3 …..m dikalikan dengan faktor penimbang dan dijumlahkan:
∑
= −
+ =
p p
n oj
i
W Z
W in
Z
11 1
2.3 Menghitung kembali sesuai dengan fungsi aktifasi
y
k
= f y_in
1
2.4 Back Propagasi dan Galatnya
d. Masing-masing unit keluaran Y
k ,
k =1,……m menerima pola target sesuai dengan pola masukan saat pelatihan training dan dihitung galatnya:
δ
k
= f
k
– y
k
f y_in
k
2.5 Karena f’ y_in
k
= y
k
menggunakan fungsi sigmoid, maka: F y_in
k
= f y_in
k
1 – f y_in
k
2.6 Menghitung perbaikan faktor penimbang kemudian untuk memperbaiki w
jk
. Δ W
kj
= α.δ
k
. Z
1
2.7 Menghitung perbaikan koreksi:
Δ W
ok
= α.δ
k
2.8 Dan menggunakan nilai
δ
k
pada semua unit lapisan sebelumnya. e.
Masing-masing penimbang yang menghubungkan unit-unit lapisan keluaran dengan unit-unit pada lapisan tersembunyi Z
j
, j = 1…,p dikalikan delta dan dijumlahkah sebagaimana masukan ke unit-unit lapisan berikutnya.
∑
=
∂ =
∂
n k
jk k
W in
1 1
_ 2.9
Universitas Sumatera Utara
Selanjutnya dikalikan dengan turunan dari fungsi aktifasinya untuk menghitung galat. δ
1
= δ_ in
1
f y_in
1
2.10 Kemudian menghitung perbaikan penimbang digunakan untuk memperbaiki V
ij
. Δ V
y =
αδ
1
X
1
2.11 Kemudian menghitung perbaikan bias untuk memperbaiki V
oj
Δ V
oj
= αδ
1
2.12 Memperbaiki penimbang dan bias
f. Masing-masing keluaran unit y
k
, k = 1,…………m diperbaiki bias dan penimbangnya j = 0, ……P.
W
jk
baru = V
jk
lama + Δ V
jk
2.13 Masing-masing unit tersembunyi Z
j
, j : 1,…….p diperbaiki bias dan penimbangnya j=0,…..n.
V
jk
baru V
jk
lama + Δ V
jk
2.14 g.
Uji kondisi pemberhentian akhir iterasi.
2.4. Model Transformasi Wavelet