Aturan Pembelajaran Perceptron Delta Rule

x =1 w x 1 w 1 x 2 w 2 w n n w i x i i =0 o = 1 jika n j =0 w i x j x n − 1 untuk yang lainnya Gambar 2.8 Perceptron x 1 , x 2 , ... , x n adalah input, o x 1 ,..., x n adalah output dan w i adalah konstanta real atau bobot weight, dimana bobot menentukan kontribusi dari input x i pada output perceptron. Fungsi perceptron dapat dituliskan sebagai : r r r o x = sgn w ⋅ x 2.5 dan dengan 1 sgn y = −1 jika jika r r y y ≤0 2.6 y = w ⋅ x 2.7

2.4.1. Aturan Pembelajaran Perceptron

Masalah pembelajaran perceptron tunggal adalah menentukan vektor bobot, karena perceptron menghasilkan output ± 1 untuk setiap contoh percobaan. Beberapa algoritma diketahui dapat menyelesaikan permasalahan tersebut, antara lain: perceptron rule dan delta rule. Algoritma tersebut sangat penting dalam jaringan saraf buatan karena merupakan dasar dari pembelajaran jaringan untuk lapisan banyak. 15 Salah satu cara untuk mempelajari vektor bobot yang tepat yaitu dimulai dengan penentuan bobot secara acak, kemudian secara iteratif dengan menggunakan perceptron untuk menghasilkan output pada setiap contoh percobaan, setelah itu memodifikasikan bobot perceptron . Proses ini terus diulang sampai pengklasifikasian perceptron untuk semua contoh percobaan menjadi tepat. Bobot dimodifiikasi pada setiap langkah berdasarkan aturan pembelajaran perceptron perceptron learning rule, yang meninjau kembali bobot w i dengan input x i berdasarkan kaidah: dengan keterangan: w i ← w i + ∆w i ∆w i = η t − o x i 2.8 2.9 t = target output contoh percobaan o = output perceptron η = konstanta positif yang disebut learning rate

2.4.2. Delta Rule

Perceptron rule dapat digunakan untuk mencari vektor bobot yang paling tepat ketika contoh data percobaannya terpisah secara linear. Namun, tidak semua data dapat dipisahkan secara linear. Dalam hal ini perceptron rule tidak mampu mengatasi permasalahan dengan kasus data yang tidak dapat dipisahkan secara linear, data tersebut dikenal dengan istilah data non-linearly separable sets. Oleh 16 2 w karena itu, pada pembahasan yang berikutnya digunakanlah delta rule yang dapat mengatasi permasalahan tersebut. Kunci dari delta rule dalam mencari ruang hipotesis dari bobot vektor yang mungkin adalah dengan menggunakan gradient descent sehingga didapatkan bobot yang paling tepat untuk suatu contoh percobaan. Aturan ini penting karena gradient descent merupakan dasar untuk algoritma backpropagation yaitu pembelajaran untuk jaringan dengan banyak unit yang terhubung. Terdapat banyak cara untuk mendefinisikan nilai error dari model vektor bobot. Salah satu ukuran yang dapat menurunkan nilai error dengan tepat adalah : r 1 2 E w ≡ t d − o d d ∈D 3.0 dengan D adalah himpunan dari contoh data percobaan, t d adalah target output untuk contoh percobaan d dan o d adalah output dari unit linear untuk contoh percobaan d. Error E digolongkan sebagai fungsi dari r karena output unit linear o bergantung pada bobot vektor. Karena permukaan error terdiri dari minimum global tunggal, algoritma delta rule hanya akan mengkonvergenkan vektor bobot dengan error minimum, tanpa memperhatikan apakah contoh percobaannya terpisah secara linear atau tidak. Nilai η yang digunakan pada algoritma ini awalnya adalah bilangan yang tidak kecil namun juga tidak terlalu besar, kemudian untuk mendapatkan 17 bobot yang tepat nilai η diperkecil setelah langkah perbaikan ke-n. Jika η terlalu besar, pencarian turunan gradient akan menimbulkan resiko, yaitu terlalu banyaknya langkah yang dilakukan untuk mencari permukan error yang minimum.

2.5. Gambaran Stokastik Untuk Gradient Descent