Model Data Pelatihan Jaringan Syaraf Tiruan

Data pelatihan dengan nilai target yang bertentangan paradoks pada var i = 700 kelas SL=1 dengan target = 1 dan var i =1000 kelas SL=1 dengan target = 0. Akibatnya, pada hasil verifikasi JST gambar 20 adalah suatu nilai baru di tengah nilai target yang diinginkan 0 atau 1. Ini diakibatkan bobot JST selama melakukan epoch pelatihan mengalami pergerakan naik-turun. Naik saat menerima target = 1 untuk input SL=1 dan kemudian harus turun kembali dikoreksi saat menerima target = 0 untuk input yang sama dan demikian seterusnya hingga pelatihan selesai dan bobot berada di kisaran daerah keseimbangan di tengah-tengah. Gambar 20 Hasil Verifikasi Akibat Data Pelatihan Yang Paradoks Hasil verifikasi data an oleh bobot an pelatihan A, eta = 0,1 dan epoch = 1000

4.2.6. Penentuan Parameter Jaringan Syaraf Tiruan

Berdasarkan referensi beberapa penelitian yang dilakukan oleh Sajjad Haider, Daw- Tung Lin, dan Obaidat serta studi literatur tentang jaringan syaraf tiruan, maka ditentukan sebagai berikut. 1. Algoritme pembelajaran yang digunakan adalah al goritme propagasi balik dengan laju pembelajaran eta tetap konstan; 2. Jumlah lapisan antara hidden layer adalah 1 dan jumlah lapisan keseluruhan adalah 3 lapisan; 3. Jumlah sel pada lapisan antara adalah 3 unit; sel pada lapisan input adalah 5 unit dan sel pada lapisan output adalah 1 unit; 4. Inisialisi bobot awal berupa bilangan acak dengan nilai -1 hingga +1; 5. Fungsi aktivasi yang digunakan adalah fungsi aktivasi sigmoid; 6. Tidak menggunakan unit bias lampiran 5; Untuk menentukan besarnya parameter laju pembelajaran learning rateeta dan jumlah epoch, maka perlu dilakukan percobaan terhadap aplikasi Analisis Data JST yang telah dibuat. Penelitian dilakukan untuk melihat pengaruh variasi jumlah pembelajaran dan akibatnya terhadap hasil verifikasi sebagai berikut. errore epoch Rate 0.1 errore epoch Rate 0.1 errore epoch Rate 0.1 errore epoch Rate 0.1 Gambar 21 Grafik Hubungan Laju Pembelajaran Dengan Penurunan Kesalahan Penurunan kesalahan untuk tiap laju pembelajaran pada model data pelatihan A kiri dan model pelatihan B kanan pada su-au-ay-gu-di-du-gi-ai untuk variabel d atas, variabel i tengah dan variabel T bawah Grafik tersebut sesuai dengan studi literatur Jaringan Syaraf Tiruan tentang laju pembelajaran, yakni pemilihan laju pembelajaran yang terlalu kecil 0.01 atau 0.05 akan membutuhkan jumlah epoch yang lebih banyak untuk mencapai tingkat kesalahan yang diinginkan. Namun, bila laju pembelajaran terlalu besar dapat berakibat terlalu cepat mencapai tingkat kesalahan yang berakibat terjebak ke dalam fenomena local minima. Walaupun dalam kasus penelitian ini, dengan jumlah epoch hingga mencapai 2000X tidak ditemukan fenomena tersebut. Ini disebabkan oleh model data pelatihan yang sudah disusun rapi dengan proses statistik dan keberadaan data komplemen sehingga sistem bisa mencapai konvergensi dengan baik. Berdasarkan hasil ini diputuskan untuk menggunakan laju pembelajaran 0,1 sebagai parameter acuan penelitian ini. Grafik dibawah ini menjelaskan alasan pemilihan jumlah epoch yang digunakan. errore epoch Rate 0.1 Rate 0.1 errore epoch