Fungsi Sigmoid Biner Fungsi Sigmoid Bipolar Pembelajaran terawasi supervised learning

Fungsi symetric saturating linear dirumuskan sebagai :     ≤ − ≤ ≤ − ≥ = 1 ; 1 1 1 ; 1 ; 1 jikaX x jika x jikaX y

h. Fungsi Sigmoid Biner

Fungsi ini digunakan untuk jaringan syaraf yang dilatih dengan menggunakan metode backpropagation. Fungsi sigmoid biner memiliki nilai pada range 0 sampai 1. Oleh karena itu, fungsi ini sering digunakan untuk jaringan syaraf yang membutuhkan nilai output yang terletak pada interval 0 sampai 1. Namun, fungsi ini bisa juga digunakan oleh jaringan syaraf yang nilai outputnya 0 atau 1. Fungsi sigmoid biner dirumuskan sebagai : x e x f y σ − + = = 1 1 Dengan : ] 1 [ x f x f x f − = σ 43

i. Fungsi Sigmoid Bipolar

Fungsi sigmoid bipolar hampir sama dengan fungsi sigmoid biner, hanya saja output dari fungsi ini memiliki range antara 1 sampai -1 Fungsi sigmoid bipolar dirumuskan sebagai : x x e e x f y − − + − = = 1 1 Dengan : [ ][ ] 1 1 2 x f x f x f − + = σ Fungsi ni sangat dekat dengan fungsi hyperbolic tangent. Keduanya memiliki range antara -1 sampai 1. Untuk fungsi hyperbolic tangent, dirumuskan sebagai : x x x x e e e e x f y − − + − = = Atau : x x e e x f y 2 2 1 1 − − + − = = Dengan : [ ][ ] 1 1 x f x f x f − + =

2.1.8.6. Proses Pembelajaran

Terdapat dua tipe pembelajaran dalan Jaringan Syaraf Tiruan, yaitu : Kusumadewi, 2003

a. Pembelajaran terawasi supervised learning

Metode pembelajaran pada jaringan syaraf disebut terawasi jika output yang diharapkan telah diketahui sebelumnya. Pada proses pembelajaran, satu pola input akan diberikan ke satu neuron pada lapisan input. Pola ini akan dirambatkan di sepanjang jaringan syaraf hingga sampai ke neuron pada lapisan output. Lapisan output ini akan membangkitkan pola output yang nantinya akan dicocokkan dengan pola output targetnya. Apabila terjadi perbedaan antara pola output hasil pembelajaran dengan pola target, maka disini akan muncul error. Apabila nilai error ini masih cukup besar, mengindikasikan bahwa masih perlu dilakukan lebih banyak pembelajaran lagi.Terdapat berbagai tipe pembelajaran terawasi beberapa diantaranya Hebb Rule, Perceptron, Delta Rule, Backpropagation, Heteroassociative Memory, Bidirectional Associative Memory BAM, Learning Vector Quantization LVQ. Penelitian ini akan menggunakan propagasi balik backpropagation sebagai metode pembelajaran. Propagasi balik merupakan algoritma pembelajaran yang terawasi dan biasanya digunakan oleh perceptron dengan banyak lapisan untuk mengubah bobot-bobot yang terhubung dengan neuron- neuron yang ada pada lapisan tersembunyinya. Algoritma propagasi balik menggunakan error output untuk mengubah nilai bobot-bobotnya dalam arah mundur backward. Untuk mendapatkan error ini, tahap perambatan maju forward propagation harus dikerjakan terlebih dahulu. Pada saat perambatan maju, neuron-neuron diaktifkan dengan menggunakan fungsi aktivasi sigmoid, yaitu : x e x f − + = 1 1 Algoritma backpropagation : • Inisialisasi bobot ambil bobot awal dengan nilai random yang cukup kecil. • Kerjakan langkah-langkah berikut selama kondisi berhenti bernilai FALSE : 1. Untuk tiap-tiap pasangan elemen yang akan dilakukan pembelajaran, kerjakan : Feedforward : a. Tiap-tiap unit input X i , i=1,2,3,...,n menerima sinyal x i dan meneruskan sinyal tersebut ke semua unit pada lapisan yang ada diatasnya lapisan tersembunyi. b. Tiap-tiap unit tersembunyi Z j , j=1,2,3,...,p menjumlahkan sinyal- sinyal input terbobot : ∑ = + = n i ij i j j v x v in z 1 _ Gunakan fungsi aktivasi untuk menghitung sinyal outputnya : Z j = fz_in j Dan kirimkan sinyal tersebut ke semua unit di lapisan atasnya unit-unit output. c. Tiap-tiap unit output Y k , k=1,2,3,...,m menjumlahkan sinyal- sinyal input terbobot. ∑ = + = p i jk i k j w z w in y 1 _ 46 Gunakan fungsi aktivasi untuk menghitung sinyal outputnya : y k =fy_in k Dan kirimkan sinyal tersebut ke semua unit dilapisan atasnya unit- unit output. Backpropagation d. Tiap-tiap unit output Yk, k=1,2,3,...,m menerima target pola yang berhubungan dengan pola input pembelajaran, hitung informasi error nya : _ k k k k in y f y t ′ − = δ Kemudian hitung koreksi bobot yang nantinya akan digunakan untuk memperbaiki nilai w jk : j k jk z W α δ = ∆ Hitung juga koreksi bias yang nantinya akan digunakan untuk memperbaiki nilai w 0k : k k w α δ = ∆ Kirimkan δ k ini ke unit-unit yang ada dilapisan bawahnya. e. Tiap-tiap unit tersembunyi Z j , j=1,2,3,...,p menjumlahkan delta inputnya dari unit-unit yang berada pada lapisan diatasnya : ∑ = = m i jk k j w in 1 _ δ δ Kalikan nilai ini dengan turunan dari fungsi aktivasinya untuk menghitung informasi error : _ _ j j j in z f in ′ = δ δ Kemudian hitung koreksi bobot yang nantinya akan digunakan untuk memperbaiki nilai v ij : i j jk x v α δ = ∆ Kemudian hitung koreksi bias yang nantinya akan digunakan untuk memperbaiki nilai v 0j : j j v α δ = ∆ f. Tiap-tiap unit output Y k , k=1,2,3,...,m memperbaiki bias dan bobotnya j=0,1,2,...,p: jk jk jk w lama w baru w ∆ + = Tiap-tiap unit tersembunyi Zj, j=1,2,3,...,p memperbaiki bias dan bobotnya i=0,1,2,...,n ij ij ij w lama v baru v ∆ + = 2. Tes Kondisi berhenti

b. Pembelajaran tak terawasi unsupervised learning