Gambaran Stokastik Untuk Gradient Descent Data Pengenalan Huruf Alphabet

bobot yang tepat nilai η diperkecil setelah langkah perbaikan ke-n. Jika η terlalu besar, pencarian turunan gradient akan menimbulkan resiko, yaitu terlalu banyaknya langkah yang dilakukan untuk mencari permukan error yang minimum.

2.5. Gambaran Stokastik Untuk Gradient Descent

Salah satu pola model umum yang digunakan pada proses pembelajaran adalah gradient descent. Gradient descent merupakan suatu strategi untuk mencari ruang model yang tak terbatas atau besar yang dapat digunakan ketika ruang model memuat parameter model yang kontinu dan error dapat diturunkan dengan parameter modelnya tersebut. Namun, gradient descent ini juga memiliki kelemahan yaitu tidak mudah digunakan dan terkadang lambat dalam pengkonvergenan solusinya. Jika ada beberapa minimum lokal pada permukaan error, maka tidak ada jaminan bahwa akan didapatkan minimum global [11]. Tujuan digunakannya gradient descent yaitu untuk mempermudah strategi pencarian model, hal tersebut dikenal dengan incremental gradient descent atau stokastik gradient descent. Sedangkan ide dasar pada stokastik gradient descent yaitu pencarian bobot yang tepat dilakukan berdasarkan perhitungan error pada setiap contoh baris datanya. Stokastik gradient descent biasanya menggunakan nilai learning rate η yang cukup kecil agar langkah pengulangan yang dilakukan tidak terlalu besar, sehingga didapatkan perkiraan gradient descent yang mendekati nilai sebenarnya. 18

2.6 Data Pengenalan Huruf Alphabet

Data pengenalan huruf berasal dari David J. Slate [5] Northwestern University pada tahun 1991 dan telah banyak dipakai dalam berbagai penelitian. Salah satunya adalah penelitian yang dilakukan P.W.Frey dan D.J. Slate [2] dengan judul Letter Recognition Using Holland-Style Adaptive Classifiers . Tingkat ketelitian pada penelitian ini mencapai 80 dan memiliki nilai error mencapai 20. 19

BAB III JARINGAN SARAF BUATAN LAPISAN BANYAK

Jaringan saraf buatan lapisan banyak merupakan perluasan dari jaringan saraf buatan lapisan tunggal. Pada jaringan saraf buatan lapisan tunggal menggunakan pendekatan algoritma perceptron yang hanya menghasilkan fungsi linear. Sebaliknya, Jaringan saraf buatan lapisan banyak menggunakan pendekatan algoritma backpropagation yang akan merepresentasikan fungsi non linear . Dalam jaringan ini selain unit input dan output terdapat unit tersembunyi. Hubungan antar lapisan berlangsung satu arah.

3.1 Unit Sigmoid

Unit perceptron merupakan salah satu tipe dari jaringan saraf buatan dengan unit tunggal dengan fungsi yang dihasilkan adalah fungsi yang linear. Namun, unit perceptron tidak dapat menjelaskan fungsi yang non linear, Oleh karena itu, Jaringan saraf buatan lapisan banyak mampu menggambarkan fungsi yang non linear. Salah satu solusinya adalah dengan unit sigmoid, yaitu sebuah unit yang mirip dengan perceptron, dan proses dasar pekerjaan dilakukan sesuai tahapan. Sama dengan perceptron, unit sigmoid pertama kali menghitung kombinasi linear dari input, kemudian menggunakan nilai batas untuk hasilnya. Pada kasus unit sigmoid, hasil output merupakan fungsi yang kontinu dari input-inputnya dan unit sigmoid menghitung output o k , secara singkat rumus yang digunakan dapat ditulis sebagai: 20