bobot  yang  tepat  nilai
η
diperkecil  setelah  langkah  perbaikan  ke-n. Jika
η  terlalu  besar,  pencarian turunan  gradient  akan  menimbulkan resiko,   yaitu   terlalu   banyaknya   langkah   yang   dilakukan   untuk
mencari permukan error yang minimum.
2.5.   Gambaran Stokastik Untuk Gradient Descent
Salah  satu  pola  model  umum  yang  digunakan  pada  proses pembelajaran  adalah  gradient  descent.  Gradient  descent  merupakan  suatu
strategi  untuk  mencari ruang  model  yang  tak terbatas  atau  besar  yang  dapat digunakan  ketika  ruang  model  memuat  parameter  model  yang  kontinu  dan
error dapat   diturunkan   dengan   parameter   modelnya   tersebut.   Namun,
gradient  descent ini  juga  memiliki  kelemahan  yaitu  tidak  mudah  digunakan
dan  terkadang  lambat  dalam  pengkonvergenan  solusinya.  Jika  ada  beberapa minimum  lokal  pada permukaan  error,  maka tidak ada jaminan bahwa  akan
didapatkan minimum global [11]. Tujuan   digunakannya   gradient   descent   yaitu   untuk   mempermudah
strategi  pencarian  model,  hal  tersebut  dikenal  dengan  incremental  gradient descent
atau  stokastik  gradient  descent.  Sedangkan  ide  dasar  pada  stokastik gradient  descent
yaitu  pencarian  bobot  yang  tepat  dilakukan  berdasarkan perhitungan   error   pada   setiap   contoh  baris   datanya.   Stokastik   gradient
descent biasanya  menggunakan nilai learning rate
η
yang cukup  kecil agar langkah    pengulangan  yang    dilakukan    tidak    terlalu  besar,    sehingga
didapatkan perkiraan gradient descent yang mendekati nilai sebenarnya.
18
2.6   Data Pengenalan Huruf Alphabet
Data  pengenalan  huruf  berasal  dari  David  J.  Slate  [5]  Northwestern University
pada  tahun   1991   dan  telah   banyak   dipakai   dalam   berbagai penelitian.  Salah  satunya  adalah  penelitian  yang   dilakukan   P.W.Frey  dan
D.J. Slate [2] dengan judul Letter Recognition Using  Holland-Style Adaptive
Classifiers .   Tingkat   ketelitian   pada   penelitian   ini   mencapai   80   dan
memiliki nilai error mencapai 20.
19
BAB III JARINGAN SARAF BUATAN LAPISAN BANYAK
Jaringan  saraf  buatan  lapisan  banyak  merupakan  perluasan  dari  jaringan saraf   buatan   lapisan   tunggal.   Pada   jaringan   saraf   buatan   lapisan   tunggal
menggunakan  pendekatan algoritma  perceptron   yang  hanya  menghasilkan  fungsi linear.
Sebaliknya,  Jaringan    saraf  buatan  lapisan  banyak    menggunakan pendekatan  algoritma  backpropagation  yang  akan  merepresentasikan  fungsi  non
linear .  Dalam  jaringan  ini selain unit input  dan output terdapat   unit tersembunyi.
Hubungan antar lapisan berlangsung satu arah.
3.1  Unit Sigmoid
Unit   perceptron  merupakan  salah  satu  tipe  dari  jaringan  saraf  buatan dengan  unit  tunggal   dengan  fungsi   yang  dihasilkan  adalah  fungsi   yang
linear. Namun,  unit  perceptron  tidak  dapat  menjelaskan  fungsi  yang  non
linear, Oleh   karena   itu,   Jaringan   saraf   buatan   lapisan   banyak   mampu
menggambarkan  fungsi  yang non  linear. Salah satu  solusinya adalah dengan unit  sigmoid,  yaitu  sebuah  unit  yang  mirip  dengan  perceptron,  dan  proses
dasar pekerjaan dilakukan sesuai tahapan. Sama   dengan   perceptron,   unit   sigmoid   pertama   kali   menghitung
kombinasi   linear   dari   input,   kemudian   menggunakan   nilai   batas   untuk hasilnya.   Pada  kasus  unit  sigmoid,   hasil  output  merupakan  fungsi   yang
kontinu  dari  input-inputnya  dan  unit  sigmoid  menghitung  output  o
k
,  secara singkat rumus yang digunakan dapat ditulis sebagai:
20