Data pelatihan dengan nilai target yang bertentangan paradoks pada var i = 700 kelas SL=1 dengan target = 1 dan var i =1000 kelas SL=1 dengan target = 0.
Akibatnya, pada hasil verifikasi JST gambar 20 adalah suatu nilai baru di tengah nilai target yang diinginkan 0 atau 1. Ini diakibatkan bobot JST selama melakukan epoch
pelatihan mengalami pergerakan naik-turun. Naik saat menerima target = 1 untuk input SL=1 dan kemudian harus turun kembali dikoreksi saat menerima target = 0 untuk
input yang sama dan demikian seterusnya hingga pelatihan selesai dan bobot berada di kisaran daerah keseimbangan di tengah-tengah.
Gambar 20 Hasil Verifikasi Akibat Data Pelatihan Yang Paradoks
Hasil verifikasi data an oleh bobot an pelatihan A, eta = 0,1 dan epoch = 1000
4.2.6. Penentuan Parameter Jaringan Syaraf Tiruan
Berdasarkan referensi beberapa penelitian yang dilakukan oleh Sajjad Haider, Daw- Tung Lin, dan Obaidat serta studi literatur tentang jaringan syaraf tiruan, maka
ditentukan sebagai berikut.
1. Algoritme pembelajaran yang digunakan adalah al goritme propagasi balik dengan laju pembelajaran eta tetap konstan;
2. Jumlah lapisan antara hidden layer adalah 1 dan jumlah lapisan keseluruhan adalah 3 lapisan;
3. Jumlah sel pada lapisan antara adalah 3 unit; sel pada lapisan input adalah 5 unit dan sel pada lapisan output adalah 1 unit;
4. Inisialisi bobot awal berupa bilangan acak dengan nilai -1 hingga +1; 5. Fungsi aktivasi yang digunakan adalah fungsi aktivasi sigmoid;
6. Tidak menggunakan unit bias lampiran 5; Untuk menentukan besarnya parameter laju pembelajaran learning rateeta dan
jumlah epoch, maka perlu dilakukan percobaan terhadap aplikasi Analisis Data JST yang telah dibuat. Penelitian dilakukan untuk melihat pengaruh variasi jumlah
pembelajaran dan akibatnya terhadap hasil verifikasi sebagai berikut.
errore
epoch Rate 0.1
errore
epoch Rate 0.1
errore
epoch Rate 0.1
errore
epoch Rate 0.1
Gambar 21 Grafik Hubungan Laju Pembelajaran Dengan Penurunan Kesalahan
Penurunan kesalahan untuk tiap laju pembelajaran pada model data pelatihan A kiri dan model pelatihan B kanan pada su-au-ay-gu-di-du-gi-ai untuk variabel d atas,
variabel i tengah dan variabel T bawah Grafik tersebut sesuai dengan studi literatur Jaringan Syaraf Tiruan tentang laju
pembelajaran, yakni pemilihan laju pembelajaran yang terlalu kecil 0.01 atau 0.05 akan membutuhkan jumlah epoch yang lebih banyak untuk mencapai tingkat
kesalahan yang diinginkan. Namun, bila laju pembelajaran terlalu besar dapat berakibat terlalu cepat mencapai tingkat kesalahan yang berakibat terjebak ke dalam
fenomena local minima. Walaupun dalam kasus penelitian ini, dengan jumlah epoch hingga mencapai 2000X tidak ditemukan fenomena tersebut. Ini disebabkan oleh
model data pelatihan yang sudah disusun rapi dengan proses statistik dan keberadaan data komplemen sehingga sistem bisa mencapai konvergensi dengan
baik. Berdasarkan hasil ini diputuskan untuk menggunakan laju pembelajaran 0,1 sebagai parameter acuan penelitian ini.
Grafik dibawah ini menjelaskan alasan pemilihan jumlah epoch yang digunakan.
errore
epoch Rate 0.1
Rate 0.1 errore
epoch