Algoritma Pembelajaran Backpropagation Standar

b. Pembelajaran tak terawasi Sedangkan jaringan saraf tiruan yang menerapkan metode pembelajaran tak terawasi tidak memerlukan target output. Pada metode ini, tidak ditentukan hasil yang seperti apakah yang diharapkan selama proses pembelajaran. Metode pembelajaran seperti ini sangat cocok untuk pengelompokan pola. Tetapi ada hal lain yang perlu dipertimbangkan dalam pembelajaran jaringan saraf tiruan yakni tercapainya keseimbangan antara kemampuan memorilisasi dengan generalisasi. Yang dimaksud memorilisasi adalah kemampuan jaringan saraf tiruan memberikan respon yang sempurna terhadap semua pola yang pernah dilatihkan. Sedangkan generalisasi adalah kemampuan jaringan saraf tiruan memberikan respon yang bisa diterima terhadap pola-pola input yang serupa namun tidak identik dengan pola-pola yang sebelumnya telah dipelajari. Hal ini sangat bermanfaat ketika jaringan saraf tiruan diberikan pola input yang belum pernah dilatihkan maka jaringan saraf tiruan tetap akan memberikan respon keluaran yang paling mendekati [25].

2.7. Algoritma Pembelajaran Backpropagation Standar

Backpropagation merupakan algoritma pembelajaran yang terawasi dan metode yang sangat baik dalam menangani pengenalan pola-pola kompleks yang menggunakan gradient descent untuk memperkecil total error kuadrat MSE hasil komputasi pada proses pelatihan [23], [25]. Jadi inilah yang menjadi alasan utama peneliti mencoba menggunakan JST dengan algoritma pembelajaran backpropagation untuk dijadikan metoda untuk memprediksi kerusakan motor induksi khususnya pada Universitas Sumatera Utara stator untuk satu hari ke depan. Algoritma pembelajaran dengan backpropagation standar dapat dibagi menjadi 2 bagian: 2.7.1. Algoritma pelatihan Adapun langkah-langkah algoritma pelatihan adalah sebagai berikut [25]: Langkah a. Inisialisasi bobot bias ke lapisan hidden V 0j , output W 0k , dan bobot input V ij , output W jk seperti pada Gambar 2.19 dengan nilai acak yang cukup kecil antara -0,5 sampai 0,5. Lalu ditentukan nilai learning rate α antara 0 sampai 1, toleransi error dan jumlah maksimal epoch jika menggunakan toleransi error dan banyaknya epoch sebagai kondisi berhenti. Langkah b. Selanjutnya dilakukan proses pengulangan dari langkah c – j hingga nilai MSE mean square error yang diperoleh dari hasil pelatihan lebih kecil dari nilai toleransi error yang ditentukan atau epoch telah tercapai. Langkah c. Untuk setiap pasangan pola akan dilakukan proses pelatihan, dengan melakukan langkah ke- d sampai langkah ke-i. Tahap maju Langkah d. Setiap node X i, i = 1, 2, ..., n pada lapisan input meneruskan sinyal input tersebut ke semua node Z j , j = 1, 2, ..., p pada lapisan tersembunyi yang ada di atasnya. Langkah e. Setiap node Z j , j = 1, 2, ..., p pada lapisan tersembunyi menjumlahkan sinyal input X i , i = 1, 2, ..., n dengan bobotnya V ij dan ditambahkan Universitas Sumatera Utara dengan bobot bias V 0j lalu dengan menggunakan fungsi aktivasinya dihitung sinyal outputnya: ∑ …………………..2. 19 selanjutnya sinyal output tersebut dikirim ke semua node ke lapisan di atasnya lapisan output. Langkah f. Setiap node Y k , k = 1, 2, ..., m pada lapisan output menjumlahkan sinyal input Z j , j = 1, 2, ..., p dari lapisan tersembunyi dengan bobotnya W jk dan ditambahkan dengan bobot bias W 0k lalu dengan menggunakan fungsi aktivasinya dihitung sinyal outputnya: ∑ ……………….2. 20 Tahap mundur Langkah g. Setiap node Y k , k = 1, 2, ..., m pada lapisan output menerima pola target t k lalu informasi kesalahan pada lapisan output δ k dihitung. δ k dikirim ke lapisan di bawahnya Z j , j = 1, 2, ..., p dan digunakan untuk menghitung besar koreksi bobot ∆W jk dan bias ∆W 0k antara lapisan tersembunyi dengan lapisan output: ′ ∑ …………..2. 21 ∆ ……………………..2. 22 ∆ ……………………..2. 23 Di mana adalah nilai konstanta learning rate yang ditetapkan. Langkah h. Setiap node Z j , j = 1, 2, ..., p di lapisan tersembunyi dilakukan perhitungan informasi kesalahan lapisan tersembunyi δ j . δ j kemudian Universitas Sumatera Utara digunakan untuk menghitung besar koreksi bobot dan bias ∆V ij dan ∆V 0j antara lapisan input dan lapisan tersembunyi. ∑ ′ ∑ ………..2. 24 ∆ ……………………..2. 25 ∆ ……………………….2. 26 Update bobot Langkah i. Setiap node pada lapisan output Y k , k = 1, 2, ..., m dilakukan perubahan bobot dan bias sehingga bobot dan bias yang baru menjadi: ∆ ……………. 2. 27 ∆ …………… 2. 28 setiap node pada lapisan tersembunyi Z j , j = 1, 2, ..., p dilakukan perubahan bobot dan bias sehingga bobot dan bias yang baru menjadi: ∆ ………………… 2. 29 ∆ ………………… 2. 30 Langkah j. Selanjutnya dilakukan pengujian untuk kondisi berhenti dengan cara membandingkan hasil MSE yang diperoleh dari pelatihan dengan nilai toleransi error jika lebih kecil atau maksimal epoch pada proses pelatihan telah sesuai dengan nilai maksimal epoch yang ditetapkan pada langkah a. 2.7.2. Algoritma aplikasi Langkah a. Inisialisasi bobot. Bobot ini diambil dari bobot V 0j, V ij , W 0k , W jk terakhir yang diperoleh dari algoritma pelatihan. Universitas Sumatera Utara Langkah b. Untuk setiap pasangan input, dilakukan langkah ke- c sampai ke- e. Langkah c. Setiap node input X i menerima sinyal input pengujian X i dan meneruskan sinyal X i ke semua node Z j pada lapisan di atasnya unit tersembunyi. Langkah d. Setiap node di lapisan tersembunyi Z j dihitung sinyal outputnya dengan menggunakan fungsi aktivasi terhadap penjumlahan sinyal input X i dengan bobot V ij dan ditambah dengan bias V 0j . ∑ ………………….2. 31 Lalu sinyal output dari lapisan tersembunyi kemudian dikirim ke semua node pada lapisan di atasnya. Langkah e. Pada setiap node output Y k dihitung sinyal outputnya dengan menggunakan fungsi aktivasi terhadap penjumlahan sinyal input dari lapisan tersembunyi Z j dengan bobot W jk ditambah bias W 0k . ∑ …………….2. 32 2.8. Variasi Pembelajaran Backpropagation Untuk mempercepat proses pelatihan maka algoritma pelatihan pada backpropagation standar dapat dilakukan perubahan baik dari model backpropagation yang digunakan atau pun cara update bobot seperti dengan menambah momentum dan update bobot berkelompok [23]. Universitas Sumatera Utara 2.8.1. Momentum Pada backpropagation standar perubahan bobot pada algoritma pelatihan didasarkan atas gradient yang terjadi untuk pola data yang dimasukkan saat itu. Metoda perubahan bobot seperti ini dapat menyebabkan JST terjebak pada suatu daerah yang dinamakan titik minimum lokal atau global karena adanya pola data yang sangat berbeda, hal ini berakibat pada lambatnya proses pelatihan. Untuk mengatasi hal ini maka dilakukan modifikasi terhadap perubahan bobot yang didasarkan atas gradient pola terakhir dan pola sebelumnya atau dikenal nama momentum. Di mana simbol momentum adalah µ dan bernilai antara 0 sampai 1 sehingga perubahan bobot dapat dihitung dengan Persamaan 2.33 dan 2.34 [23]: ∆ ∆ ……………………2. 33 dan ∆ ∆ ……………………2. 34 Di mana t adalah epoch. 2.8.2. Perubahan Bobot Berkelompok Variasi lain yang dapat dilakukan untuk memodifikasi perubahan bobot yaitu dengan cara mengubah bobotnya sekaligus setelah semua pola data yang dimasukkan. Di mana semua pola data yang dimasukkan dilakukan langkah d – h dari algoritma pelatihan backpropagation standar. Selanjutnya dilakukan proses update bobot dengan cara menambahkan semua ∆ dan ∆ yang diperoleh [23]. Universitas Sumatera Utara 44

BAB 3 METODE PENELITIAN