Pemilihan dan Persiapan Data Training Inialisasi Pembobot

21 Algoritma yang digunakan pada kondisi diatas adalah error corection learning yang dapat ditemukan pada backpropagation. Proses pelatihan training dari backpropagation terdiri atas beberapa tahap sebagai berikut ini. 1 Pemilihan dan persiapan data training. 2 Persiapan bobot awal. 3 Modifikasi bobot hubungan neuron. 4 Iterasi. 5 Validasi.

1. Pemilihan dan Persiapan Data Training

Pemilihan dan persiapan data training merupakan faktor yang penting dalam algoritma backpropagation. Berikut ini hal yang harus diperhatikan dalam pemilihan dan persiapan data training. 1 JST tidak berguna jika hanya menganalisa hanya satu contoh pasangan input output saja. JST tidak akan dapat menduga karakteristik dari data input dari hanya satu contoh saja, sehingga diperlukan banyak contoh pasangan input output untuk mendapatkan pendugaan klasifikasi yang benar. 2 Prosedur training yang baik adalah menyusun data dengan range yang lebar. Untuk permasalahan yang lebih komplek diperlukan sampel yang lebih banyak. Data harus menunjukkan semua perbedaan karakter yang diminati. Sangat penting untuk memilih sampel yang tidak mengandung faktor dominan yang bukan pokok permasalahan. Sebagai contoh adalah JST untuk pengklasifikasian tank angkatan darat Amerika. Contoh yang digunakan adalah tank Soviet pada berbagai sudut dan jarak pada keadaan hari cerah, dan contoh tank Amerika pada hari yang berawan. Bisa dikatakan bahwa jaringan tersebut lebih handal untuk mengklasifikasikan cuaca dari pada untuk mengidentifikasi tank lawan. 3 Jika memungkinkan pada saat pelatihan, diberikan noise atau dilakukan pengacakan dari sampel. Metode ini akan memberikan kemampuan jaringan untuk mengatasi noise dan variasi alami pada data nyata, sehingga akan meningkatkan kehandalan jaringan. 22 Dari penjelasan diatas dapat disimpulkan bahwa suatu JST akan menghasilkan keluaran yang baik, sebaik data training yang diberikan.

2. Inialisasi Pembobot

Pembobot mula- mula dipilih secara acak dengan bilangan acak kecil, atau ditentukan dengan metode Nguyen-Widrow. 3. Modifikasi Bobot Hubungan Neuron Gambar 6 menunjukkan masukan x i diberikan pada lapisan masukan, simpul pada lapisan masukan akan mendistribusikan sinyal tersebut ke simpul pada lapisan tersembunyi. Masukan pada lapisan tersembunyi disebut dengan nilai z inj . Persamaan untuk mendapatkan z inj adalah sebagai berikut ini. ∑ = = n i ij i inj v x z 1 4 Setelah memasuki simpul pada lapisan tersembunyi maka akan terjadi perhitungan masukan z inj dengan fungsi aktifasi. Fungsi aktifasi yang digunakan adalah fungsi sigmoid. exp 1 1 x x f σ − + = 5 dimana x : nilai masukan s : konstanta persamaan sigmoid Nilai keluaran pada lapisan tersembunyi z j merupakan hasil masukan z inj ke fungsi aktifasi inj j z f z = 6 z j kemudian menjadi masukan lapisan keluaran jk j p j nk i w z y ∑ = = 1 7 Masukan pada lapisan keluaran y ink akan mengalami perhitungan pada simpul keluaran dengan fungsi aktifasi nk i k y f y = 8 23 Aturan belajar diturunkan dengan mengoptimasi suatu fungsi harga cost function . Harga yang digunakan adalah jumlah kuadrat galat sum squared error sebagai berikut ini ∑ = − = m k k k y t E 1 2 2 1 9 dimana t k : keluaran sebenarnya target y k : keluaran JST Diferensial dari persamaan 9 terhadap w jk maka jk w E ∂ ∂ = [ ]       − ∂ ∂ ∑ = m k k k jk y t w 1 2 2 1 = [ ] { } 2 2 1 ink k jk y f t w − ∂ ∂ = [ ] ink jk k k y f w y t ∂ ∂ − − = [ ] ink jk ink k k y f w y f y t ∂ ∂ − − = [ ] j ink k k z y f y t − − = j k z ∂ − 10 Dari persamaan diatas maka dapat ditentukan perubahan pembobot antara lapisan keluaran dan lapisan tersembunyi sebagai berikut j k jk z w δ α = ∆ 11 dimana a : konstanta learning rate Dari diferensial persamaan 9 terhadap v ij maka didapat ij v E ∂ ∂ = [ ] k ij m k k k y v y t ∂ ∂ − − ∑ = 1 = [ ] ink ij ink m k k k y v y f y t ∂ ∂ − − ∑ = 1 = 1 ink m k ij k y v ∑ = ∂ ∂ − δ = 1 j m k ij jk k z v w ∑ = ∂ ∂ − δ =      − ∑ = 1 inj m k jk k i z f w x δ = i j x δ 12 24 Dari persamaan 12 dapat ditentukan perubahan pembobot antara lapisan tersembunyi dan lapisan masukan sebagai berikut i j ij x v δ α = ∆ 13 Prosedur memperbarui pembobot adalah jk jk jk w old w new w ∆ + = 14 ij ij ij v old v new v ∆ + = 15 sedangkan pengaruh konstanta momentum terhadap perubahan nilai pembobot adalah 1 t w z t w jk j k jk ∆ + = + ∆ µ αδ 16 1 t v x t v ij i j ij ∆ + = + ∆ µ αδ 17 dimana µ : konstanta momentum Dalam proses pelatihan JST terdapat dua permasalahan yang harus diperhatikan, berkaitan dengan metode heuristik untuk perbaikan kinerja jaringan, yaitu: 1 Harga konstanta learning rate a yang menentukan besarnya perubahan pembobot. Nilai learning rate antara 0 hingga 0,9. Semakin besar nilai konstanta learning rate maka semakin cepat jaringan melakukan proses belajar, tetapi apabila nilai konstanta learning rate terlalu besar akan membuat jaringan melompati nilai minimum lokalnya sehingga jaringan berosilasi, yang berakibat kinerja jaringan kurang stabil. 2 Proses menuju jumlah kuadrat kesalahan terkecil jaringan dapat memasuki minimum lokal sehingga proses pelatihan tidak dilanjutkan meskipun belum mencapai harga jumlah kuadrat kesala han minimum global. Hal ini terjadi karena nilai learning rate yang kecil Berdasarkan hal diatas untuk memperbaiki proses pelatihan dilakukan perbaikan dengan menambahkan nilai momentum µ antara 0 hingga 0,9, sehingga nilai learning rate dapat ditingkatkan dan osilasi pada jaringan diminimumkan. Metode heuristik yang lain adalah dengan cara menambahkan layer pada hidden unit , menambahkan hubungan pada input unit ke output unit , dan merubah fungsi aktifasi. 25

4. Iterasi