2.8 Arsitektur Jaringan
Jaringan neuron yang sering digunakan dalam jaringan syaraf tiruan untuk pengenalan pola adalah jaringan lapis tunggal Single layer network Gambar 5
dan jaringan lapis banyak Multi layer network Gambar 6. Perbedaan kedua arsitektur ini terletak pada lapisan tersembunyi. Pada arsitektur jaringan lapis
tunggal tidak memiliki lapisan tersembunyi, sedangkan pada arsitektur jaringan lapis jamak memiliki minimal 1 lapisan tersembunyi Kusumadewi, 2003.
Gambar 5 Jaringan syaraf lapis tunggal Kusumadewi, 2003. X
1
X
2
X
3
Y
1
Y
2
Lapisan Input Nilai input
Matriks bobot
Lapisan output
Nilai output W
11
W
12
W
21
W
22
W
31
W
32
Gambar 6 Jaringan syaraf lapis banyak Kusumadewi, 2003.
2.9 Fungsi Aktifasi
Fungsi aktivasi digunakan pada per hitungan input yang diterima neuron, setelah itu diteruskan ke neuron berikutnya. Dengan demikian fungsi aktivasi
berfungsi sebagai penentu kuat lemahnya sinyal yang dikeluarkan oleh suatu neuron. Fungsi aktivasi yang sering digunakan pada JST propagasi ba lik antra lain
-
Sigmoid biner, ya itu fungsi biner yang memiliki rentang 0 sd 1 dengan rumusan fungsi sebagai berikut :
exp 1
1 x
x f
− +
=
6
Gambar 7 Fungsi aktivasi sigmoid biner pada selang 0 sd 1 Kusumadewi, 2003.
X
1
X
2
X
3
Z
1
Z
2
Lapisan Input Nilai input
Matriks bobot 1 Lapisan tersembunyi
V
11
V
12
V
21
V
22
V
31
V
32
Y W
1
W
2
Nilai output Lapisan output
Matriks bobot 2
fx
x 1
-
Sigmoid bipolar, yaitu fungsi yang memiliki rentang -1 sd 1 dengan rumusan fungsi sebagai berikut :
1 exp
1 2
− −
+ =
x x
f
7
Gambar 8 Fungsi aktivasi sigmoid bipolar pada selang -1 sd 1 Kusumadewi, 2003.
2.10 Proses Pembelajaran
Merupakan proses perubahan bobot-bobot yang ada pada jaringan dengan tujuan meminimalkan mean square error mse atau toleransi galat antara
keluaran yang dihasilkan dengan keluaran yang diinginkan target. Perubahan ini dapat bertambah dan berkurang sesuai dengan informasi yang diberikan oleh
neuron yang bersangkutan. Perubahan ini akan berhenti jika bobot -bobot pada jaringan sudah cukup seimbang. Kondisi ini mengindikasikan bahwa setiap input
telah berhubungan dengan output yang diharapkan. 1.
Pembelajaran Terawasi Supervised Learning Metode ini hanya berlaku jika output yang diharapkan sudah diketahui,
sehingga dalam proses pembelajaran, setiap input akan memiliki target output yang harus dicapai. Apabila terjadi perbedaan antara pola output hasil
pembelajaran dengan pola target, maka akan muncul galat. Apabila nilai galat ini masih cukup besar, maka perlu iterasi pembelajaran yang
berikutnya Kusumadewi, 2003. fx
x -1
1
2. Pembelajaran Tak Terawasi Unsupervised Learning
Metode ini tidak memerlukan target output sehingga tidak dapat ditentukan hasil yang seperti apakah yang diharapkan selama proses pembelajaran.
Selama proses pembelajaran nilai bobot disusun dalam satu rentang tertentu tergantung pada nilai input yang diberikan. Tujuan dari pembelajaran ini
adalah mengelompokkan unit-unit yang hampir sama dalam suatu area tertentu Kusumadewi, 2003
Fungsi yang digunakan dalam proses pembelajaran adalah traincgp. Traincgp
merupakan algoritma pelatihan cepat dengan perbaikan teknik optimasi numeris dan pengaturan bobotnya tidak selalu dalam arah menurun gradien
negatif tapi disesuaikan dengan arah konjugasinya Kusumadewi, 2003.
2.11 JST Propagasi Balik