Pelatihan Jaringan Syaraf Tiruan Backpropagation

Fausett, 1994. Sebuah NN biasanya terdiri atas lapisan-lapisan antara lain lapisan input input layer yaitu lapisan yang menerima masukan atau input dari jaringan luar, lapisan tersembunyi hidden layer yaitu lapisan yang terletak dalam satu atau beberapa lapisan dan tidak berhubungan langsung dengan keadaan diluar jaringan serta lapisan output output layer yaitu lapisan yang menghasilkan output dari jaringan.Berdasarkan jumlah layer yang dimiliki, NN dibedakan menjadi jaringan lapisan tunggal single layer dan jaringan multilapis multilayer. Pada single layer,jaringan tersebut tidak mempunyai lapisan tersembunyi dari neuron atau hanya mempunyai satu lapisan bobot koneksi serta sekumpulan input neuron dihubungkan langsung dengan sekumpulan output. Sedangkan pada multilayer terdiri dari lapisan input, lapisan tersembunyi dan lapisan output. Lapisan tersembunyi terletak diantara lapisan input dan lapisan output. Output dari sebuah lapisan tersembunyi akan menjadi input bagi lapisan berikutnya. Jaringan ini paling tidak mempunyai satu lapisan tersembunyi Siang, 2005.

2.2. Pelatihan Jaringan Syaraf Tiruan

Pelatihan Jaringan Syaraf bertujuan untuk mencari bobot-bobot yang terdapat pada setiap layer. Ada dua jenis pelatihan dalam sistem jaringan syaraf tiruan, yaitu: 1. Supervised Learning. Dalam proses pelatihan ini, jaringan dilatih dengan cara diberikan data-data yang disebut training data yang terdiri atas pasangan input-output yang diharapkan dan disebut associative memory. Setelah jaringan dilatih, associative memory dapat mengingat suatu pola. Jika jaringan diberi input baru, jaringan dapat menghasilkan output seperti yang diharapkan berdasarkan pola yang sudah ada. Universita Sumatera Utara 2. Unsupervised Learning. Dalam proses pelatihan ini, jaringan dilatih hanya dengan diberi data input yang memiliki kesamaan sifat tanpa disertai output.

2.3. Backpropagation

Propagasi balik merupakan algoritma pembelajaran yang terawasi dan biasanya digunakan oleh perceptron dengan banyak lapisan untuk mengubah bobot-bobot yang terhubung dengan neuron-neuron yang ada pada lapisan tersembunyinya. Algoritma propagasi balik menggunakan error output untuk mengubah nilai bobot-bobotnya dalam arah mundur backward. Untuk mendapatkan error ini, tahap perambatan maju forward propagation harus dikerjakan terlebih dahulu. Pada saat perambatan maju, neuron-neuron diaktifkan dengan menggunakan fungsi aktivasi sigmoid, yaitu : 1 Jaringan propagasi balik dikembangkan oleh Paul Werbos Valurru B. Rao and Hayagriva V Rao, 1993 dan hampir 80 dari seluruh jaringan syaraf tiruan yang ada dalam perkembangannya menggunakan jaringan ini karena mudah dalam proses belajarnya. Jaringan syaraf tiruan propagasi balik memiliki kemampuan untuk menentukan hubungan antara sekelompok pola masukan dengan sekelompok pola keluaran yang diberikan dan menggunakan hubungan ini pada saat diberikan pola masukan baru. Suatu fungsi aktivasi propagasi balik memiliki ciri utama yaitu berkesinambungan dan adanya peningkatanperbaikan yang berulangulang. Aplikasi propagasi balik yaitu memetakan masukan input terhadap target keluaran output. Tujuan pemetaan adalah untuk melatih jaringan mencapai suatu keseimbangan antara Universita Sumatera Utara kemampuan merespon pola masukan yang digunakan dalam pelatihan dengan kemampuan untuk memberi respon masukan yang disesuaikan. Konfigurasi jaringan propagasi balik bisa dilihat pada gambar 2.3 berikut ini : Gambar 2.2. Konfigurasi JST Propagasi balik Prosedur belajar propagasi balik menggunakan metode gradient descent dengan paradigma belajar supervised, sehingga pasangan data input-output set data mutlak harus tersedia. Data ini akan digunakan sebagai pembimbing dalam mengenali polanya. Untuk dapat mengubah bobot sinapsis, maka proses komputasi dilakukan dengan cara arah maju forward dan arah mundur backward. Dengan mengacu pada gambar 2.3, prosedur pelatihan jaringan beserta penjelasannya : pertama sebuah vektor masukan, X=Xp1, Xp1, …, XpN diberikan pada lapisan masukan jaringan dengan p menyatakan pasangan vektor ke-p. Sel-sel masukan mendistribusikan nilai- nilai masukan tersebut ke sel pada lapisan dalam. Jumlah masukan keseluruhan net input untuk sel lapisan dalam ke-j dihitung sebagai penjumlahan dari keluaran sel-sel lapisan masukan yang dikalikan dengan bobot interkoneksinya ditambah dengan suatu besaran yang disebut bobot bias. Bias satuan ini memberikan nilai masukan fiktif 1 Universita Sumatera Utara pada bobot bias dan pada bobot lainnya. Bobot bias diperlakukan sama dan berpartisipasi dalam proses belajar seperti halnya bobot-bobot lainnya.

2.4. Model Pembelajaran