Tinjauan Pustaka TINJAUAN PUSTAKA

7 Kemudian pada tahun 1997 , Jyh-Shing Roger Jang, Chuen-Tsai Sun, E iji Mizutani menulis buku tentang jaringan syaraf kabur neuro-fuzzy dan komputasinya. Buku ini menjelaskan metode-metode komputasi yang dapat digunakan untuk memecahkan persoalan pada jaringan syaraf kabur antara lain metode penurunan tercuram dan metode conjugate gradient. Tetapi metode-metode tersebut dijelaskan secara terpisah dari jaringan syaraf kabur. Tahun 1999, Martin T. Hagan, Howard B. Demuth dan Mark Beale dalam bukunya menuliskan jaringan perambatan balik dengan optimisasi menggunakan algoritma conjugate gradient. Algoritma pencarian garis yang digunakan untuk optimisasinya adalah algoritma golden section search. Berhubungan dengan penelitian sebelumnya tentang aplikasi metode conjugate gradient pada berbagai masalah maka peneliti juga akan mengaplikasikannya pada masalah jaringan saraf dalam hal ini adalah jaringan perambatan balik.

B. Landasan Teori

1. Metode

Steepest Descent Penurunan Tercuram Metode penurunan tercuram merupakan salah satu metode yang digunakan untuk optimisasi. Pada algoritma pelatihan jaringan syaraf, penurunan tercuram digunakan untuk untuk mengoptimalkan performance index Fx. Arti mengoptimalkan di sini adalah mencari nilai x yang meminimalkan Fx. Penurunan tercuram adalah metode iteratif yang memulai taksiran x dengan taksiran awal x dan kemudian tiap iterasinya akan memperbaiki taksiran dengan persamaan yang berbentuk: k k k k p x x α + = + 1 2.1 8 atau k k k k k p x x x α = − = ∆ + 1 2.2 dengan vektor p k adalah search direction arah pencarian dan α k adalah learning rate pesat belajar yang merupakan skalar positif. Pesat belajar menentukan panjang langkah pada tiap pencarian. Pada tiap iterasi diharapkan fungsi selalu menurun, atau dengan kata lain : k k x F x F + 1 2.3 Kemudian arah p k dapat dipilih dengan memakai ekspansi deret Taylor urutan pertama sebagai berikut : k T k k k k k x g x F x x F x F ∆ + ≈ ∆ + = + 1 2.4 dengan g k adalah gradien pada taksiran lama x k : k x x k x F g = ∇ ≡ 2.5 Agar k k x F x F + 1 , maka suku ke-dua dari persamaan di sebelah kanan harus negatif: = ∆ k T k k k T k p g x g α 2.6 α k dipilih bilangan yang kecil tapi lebih besar dari nol , artinya : k T k p g 2.7 Semua vektor p k yang memenuhi persamaan di atas disebut arah penurunan. Fungsi akan turun jika dilakukan langkah yang cukup kecil pada arah ini. Sedangkan yang dimaksud dengan arah penurunan tercuram adalah arah yang akan mengakibatkan fungsi turun paling cepat. Hal ini terjadi jika k T k p g paling negatif. Ini akan terjadi jika vektor arah merupakan negatif dari gradiennya :