b. Pembelajaran tak terawasi
Sedangkan jaringan saraf tiruan yang menerapkan metode pembelajaran tak terawasi tidak memerlukan target output. Pada metode ini, tidak ditentukan hasil
yang seperti apakah yang diharapkan selama proses pembelajaran. Metode pembelajaran seperti ini sangat cocok untuk pengelompokan pola.
Tetapi ada hal lain yang perlu dipertimbangkan dalam pembelajaran jaringan saraf tiruan yakni tercapainya keseimbangan antara kemampuan memorilisasi dengan
generalisasi. Yang dimaksud memorilisasi adalah kemampuan jaringan saraf tiruan memberikan respon yang sempurna terhadap semua pola yang pernah dilatihkan.
Sedangkan generalisasi adalah kemampuan jaringan saraf tiruan memberikan respon yang bisa diterima terhadap pola-pola input yang serupa namun tidak identik
dengan pola-pola yang sebelumnya telah dipelajari. Hal ini sangat bermanfaat ketika jaringan saraf tiruan diberikan pola input yang belum pernah dilatihkan maka jaringan
saraf tiruan tetap akan memberikan respon keluaran yang paling mendekati [25].
2.7. Algoritma Pembelajaran Backpropagation Standar
Backpropagation merupakan algoritma pembelajaran yang terawasi dan metode
yang sangat baik dalam menangani pengenalan pola-pola kompleks yang menggunakan gradient descent untuk memperkecil total error kuadrat MSE hasil
komputasi pada proses pelatihan [23], [25]. Jadi inilah yang menjadi alasan utama peneliti mencoba menggunakan JST dengan algoritma pembelajaran backpropagation
untuk dijadikan metoda untuk memprediksi kerusakan motor induksi khususnya pada
Universitas Sumatera Utara
stator untuk satu hari ke depan. Algoritma pembelajaran dengan backpropagation standar dapat dibagi menjadi 2 bagian:
2.7.1. Algoritma pelatihan
Adapun langkah-langkah algoritma pelatihan adalah sebagai berikut [25]: Langkah a. Inisialisasi bobot bias ke lapisan hidden V
0j
, output W
0k
, dan bobot input
V
ij
, output W
jk
seperti pada Gambar 2.19 dengan nilai acak yang cukup kecil antara -0,5 sampai 0,5. Lalu ditentukan nilai learning
rate α antara 0 sampai 1, toleransi error dan jumlah maksimal epoch
jika menggunakan toleransi error dan banyaknya epoch sebagai kondisi berhenti.
Langkah b. Selanjutnya dilakukan proses pengulangan dari langkah c – j hingga nilai MSE mean square error yang diperoleh dari hasil pelatihan lebih kecil
dari nilai toleransi error yang ditentukan atau epoch telah tercapai. Langkah c. Untuk setiap pasangan pola akan dilakukan proses pelatihan, dengan
melakukan langkah ke- d sampai langkah ke-i.
Tahap maju
Langkah d. Setiap node X
i,
i = 1, 2, ..., n pada lapisan input meneruskan sinyal input tersebut ke semua node Z
j
, j = 1, 2, ..., p pada lapisan tersembunyi yang ada di atasnya.
Langkah e. Setiap node Z
j
, j = 1, 2, ..., p pada lapisan tersembunyi menjumlahkan sinyal input X
i
, i = 1, 2, ..., n dengan bobotnya V
ij
dan ditambahkan
Universitas Sumatera Utara
dengan bobot bias V
0j
lalu dengan menggunakan fungsi aktivasinya dihitung sinyal outputnya:
∑ …………………..2. 19
selanjutnya sinyal output tersebut dikirim ke semua node ke lapisan di atasnya lapisan output.
Langkah f. Setiap node Y
k
, k = 1, 2, ..., m pada lapisan output menjumlahkan sinyal input Z
j
, j = 1, 2, ..., p dari lapisan tersembunyi dengan bobotnya W
jk
dan ditambahkan dengan bobot bias W
0k
lalu dengan menggunakan fungsi aktivasinya dihitung sinyal outputnya:
∑ ……………….2. 20
Tahap mundur
Langkah g. Setiap node Y
k
, k = 1, 2, ..., m pada lapisan output menerima pola target t
k
lalu informasi kesalahan pada lapisan output δ
k
dihitung. δ
k
dikirim ke lapisan di bawahnya Z
j
, j = 1, 2, ..., p dan digunakan untuk menghitung besar koreksi bobot
∆W
jk
dan bias ∆W
0k
antara lapisan tersembunyi dengan lapisan output:
′
∑ …………..2. 21
∆ ……………………..2. 22
∆ ……………………..2. 23
Di mana adalah nilai konstanta learning rate yang ditetapkan. Langkah h. Setiap node Z
j
, j = 1, 2, ..., p di lapisan tersembunyi dilakukan perhitungan informasi kesalahan lapisan tersembunyi
δ
j
. δ
j
kemudian
Universitas Sumatera Utara
digunakan untuk menghitung besar koreksi bobot dan bias ∆V
ij
dan ∆V
0j
antara lapisan input dan lapisan tersembunyi. ∑
′
∑ ………..2. 24
∆ ……………………..2. 25
∆ ……………………….2. 26
Update bobot
Langkah i. Setiap node pada lapisan output Y
k
, k = 1, 2, ..., m dilakukan perubahan
bobot dan bias sehingga bobot dan bias yang baru menjadi: ∆
…………….
2. 27 ∆
……………
2. 28 setiap node pada lapisan tersembunyi Z
j
, j = 1, 2, ..., p dilakukan perubahan bobot dan bias sehingga bobot dan bias yang baru menjadi:
∆
…………………
2. 29 ∆
…………………
2. 30 Langkah j. Selanjutnya dilakukan pengujian untuk kondisi berhenti dengan cara
membandingkan hasil MSE yang diperoleh dari pelatihan dengan nilai toleransi error jika lebih kecil atau maksimal epoch pada proses pelatihan
telah sesuai dengan nilai maksimal epoch yang ditetapkan pada langkah a.
2.7.2.
Algoritma aplikasi
Langkah a. Inisialisasi bobot. Bobot ini diambil dari bobot V
0j,
V
ij
, W
0k
, W
jk
terakhir yang diperoleh dari algoritma pelatihan.
Universitas Sumatera Utara
Langkah b. Untuk setiap pasangan input, dilakukan langkah ke- c sampai ke- e. Langkah c. Setiap node input X
i
menerima sinyal input pengujian X
i
dan meneruskan sinyal X
i
ke semua node Z
j
pada lapisan di atasnya unit tersembunyi.
Langkah d. Setiap node di lapisan tersembunyi Z
j
dihitung sinyal outputnya dengan menggunakan fungsi aktivasi terhadap penjumlahan sinyal input X
i
dengan bobot V
ij
dan ditambah dengan bias V
0j
. ∑
………………….2. 31 Lalu
sinyal output
dari lapisan tersembunyi kemudian dikirim ke semua node
pada lapisan di atasnya. Langkah e. Pada setiap node output Y
k
dihitung sinyal outputnya dengan menggunakan fungsi aktivasi terhadap penjumlahan sinyal input dari
lapisan tersembunyi Z
j
dengan bobot W
jk
ditambah bias W
0k
. ∑
…………….2. 32 2.8.
Variasi Pembelajaran Backpropagation
Untuk mempercepat proses pelatihan maka algoritma pelatihan pada backpropagation
standar dapat dilakukan perubahan baik dari model backpropagation
yang digunakan atau pun cara update bobot seperti dengan menambah momentum dan update bobot berkelompok [23].
Universitas Sumatera Utara
2.8.1. Momentum
Pada backpropagation standar perubahan bobot pada algoritma pelatihan didasarkan atas gradient yang terjadi untuk pola data yang dimasukkan saat itu.
Metoda perubahan bobot seperti ini dapat menyebabkan JST terjebak pada suatu daerah yang dinamakan titik minimum lokal atau global karena adanya pola data
yang sangat berbeda, hal ini berakibat pada lambatnya proses pelatihan. Untuk mengatasi hal ini maka dilakukan modifikasi terhadap perubahan bobot yang
didasarkan atas gradient pola terakhir dan pola sebelumnya atau dikenal nama momentum. Di mana simbol momentum adalah µ dan bernilai antara 0 sampai 1
sehingga perubahan bobot dapat dihitung dengan Persamaan 2.33 dan 2.34 [23]: ∆
∆ ……………………2. 33
dan ∆
∆ ……………………2. 34
Di mana t adalah epoch. 2.8.2.
Perubahan Bobot Berkelompok Variasi lain yang dapat dilakukan untuk memodifikasi perubahan bobot yaitu
dengan cara mengubah bobotnya sekaligus setelah semua pola data yang dimasukkan. Di mana semua pola data yang dimasukkan dilakukan langkah d – h dari algoritma
pelatihan backpropagation standar. Selanjutnya dilakukan proses update bobot dengan cara menambahkan semua
∆ dan
∆ yang diperoleh [23].
Universitas Sumatera Utara
44
BAB 3 METODE PENELITIAN