Fausett, 1994. Sebuah NN biasanya terdiri atas lapisan-lapisan antara lain lapisan input input layer yaitu lapisan yang menerima masukan atau input dari jaringan luar,
lapisan tersembunyi hidden layer yaitu lapisan yang terletak dalam satu atau beberapa lapisan dan tidak berhubungan langsung dengan keadaan diluar jaringan
serta lapisan output output layer yaitu lapisan yang menghasilkan output dari jaringan.Berdasarkan jumlah layer yang dimiliki, NN dibedakan menjadi jaringan
lapisan tunggal single layer dan jaringan multilapis multilayer. Pada single layer,jaringan tersebut tidak mempunyai lapisan tersembunyi dari neuron atau hanya
mempunyai satu lapisan bobot koneksi serta sekumpulan input neuron dihubungkan langsung dengan sekumpulan output. Sedangkan pada multilayer terdiri dari lapisan
input, lapisan tersembunyi dan lapisan output. Lapisan tersembunyi terletak diantara lapisan input dan lapisan output. Output dari sebuah lapisan tersembunyi akan menjadi
input bagi lapisan berikutnya. Jaringan ini paling tidak mempunyai satu lapisan tersembunyi Siang, 2005.
2.2. Pelatihan Jaringan Syaraf Tiruan
Pelatihan Jaringan Syaraf bertujuan untuk mencari bobot-bobot yang terdapat pada setiap layer. Ada dua jenis pelatihan dalam sistem jaringan syaraf tiruan, yaitu:
1. Supervised Learning.
Dalam proses pelatihan ini, jaringan dilatih dengan cara diberikan data-data yang disebut training data yang terdiri atas pasangan input-output yang diharapkan dan
disebut associative memory. Setelah jaringan dilatih, associative memory dapat mengingat suatu pola. Jika jaringan diberi input baru, jaringan dapat menghasilkan
output seperti yang diharapkan berdasarkan pola yang sudah ada.
Universita Sumatera Utara
2. Unsupervised Learning.
Dalam proses pelatihan ini, jaringan dilatih hanya dengan diberi data input yang memiliki kesamaan sifat tanpa disertai output.
2.3. Backpropagation
Propagasi balik merupakan algoritma pembelajaran yang terawasi dan biasanya digunakan oleh perceptron dengan banyak lapisan untuk mengubah bobot-bobot yang
terhubung dengan neuron-neuron yang ada pada lapisan tersembunyinya. Algoritma propagasi balik menggunakan error output untuk mengubah nilai bobot-bobotnya
dalam arah mundur backward. Untuk mendapatkan error ini, tahap perambatan maju forward propagation harus dikerjakan terlebih dahulu. Pada saat perambatan maju,
neuron-neuron diaktifkan dengan menggunakan fungsi aktivasi sigmoid, yaitu :
1 Jaringan propagasi balik dikembangkan oleh Paul Werbos Valurru B. Rao and
Hayagriva V Rao, 1993 dan hampir 80 dari seluruh jaringan syaraf tiruan yang ada dalam perkembangannya menggunakan jaringan ini karena mudah dalam proses
belajarnya. Jaringan syaraf tiruan propagasi balik memiliki kemampuan untuk menentukan hubungan antara sekelompok pola masukan dengan sekelompok pola
keluaran yang diberikan dan menggunakan hubungan ini pada saat diberikan pola masukan baru. Suatu fungsi aktivasi propagasi balik memiliki ciri utama yaitu
berkesinambungan dan adanya peningkatanperbaikan yang berulangulang. Aplikasi propagasi balik yaitu memetakan masukan input terhadap target keluaran output.
Tujuan pemetaan adalah untuk melatih jaringan mencapai suatu keseimbangan antara
Universita Sumatera Utara
kemampuan merespon pola masukan yang digunakan dalam pelatihan dengan kemampuan untuk memberi respon masukan yang disesuaikan. Konfigurasi jaringan
propagasi balik bisa dilihat pada gambar 2.3 berikut ini :
Gambar 2.2. Konfigurasi JST Propagasi balik
Prosedur belajar propagasi balik menggunakan metode gradient descent dengan paradigma belajar supervised, sehingga pasangan data input-output set data
mutlak harus tersedia. Data ini akan digunakan sebagai pembimbing dalam mengenali polanya. Untuk dapat mengubah bobot sinapsis, maka proses komputasi dilakukan
dengan cara arah maju forward dan arah mundur backward. Dengan mengacu pada gambar 2.3, prosedur pelatihan jaringan beserta penjelasannya : pertama sebuah
vektor masukan, X=Xp1, Xp1, …, XpN diberikan pada lapisan masukan jaringan dengan p menyatakan pasangan vektor ke-p. Sel-sel masukan mendistribusikan nilai-
nilai masukan tersebut ke sel pada lapisan dalam. Jumlah masukan keseluruhan net input untuk sel lapisan dalam ke-j dihitung sebagai penjumlahan dari keluaran sel-sel
lapisan masukan yang dikalikan dengan bobot interkoneksinya ditambah dengan suatu besaran yang disebut bobot bias. Bias satuan ini memberikan nilai masukan fiktif 1
Universita Sumatera Utara
pada bobot bias dan pada bobot lainnya. Bobot bias diperlakukan sama dan berpartisipasi dalam proses belajar seperti halnya bobot-bobot lainnya.
2.4. Model Pembelajaran