Proses Pembelajaran Jaringan Syaraf Tiruan

i. Fungsi Sigmoid Bipolar Fungsi sigmoid bipolar hampir sama dengan fungsi sigmoid biner, hanya saja output dari fungsi ini memiliki range antara 1 sampai -1 Fungsi sigmoid bipolar dirumuskan sebagai : x x e e x f y − − + − = = 1 1 Dengan : [ ][ 1 1 2 x f x f x f − + = ] σ Fungsi ini sangat dekat dengan fungsi hyperbolic tangent. Keduanya memiliki range antara -1 sampai 1. Untuk fungsi hyperbolic tangent, dirumuskan sebagai : x x x x e e e e x f y − − + − = = Atau : x x e e x f y 2 2 1 1 − − + − = = Dengan : [ ][ ] 1 1 x f x f x f − + =

2.2.4. Proses Pembelajaran

Terdapat dua tipe pembelajaran dalan Jaringan Syaraf Tiruan, yaitu : a. Pembelajaran terawasi supervised learning Metode pembelajaran pada jaringan syaraf disebut terawasi jika output yang diharapkan telah diketahui sebelumnya. Pada proses pembelajaran, satu pola Universitas Sumatera Utara input akan diberikan ke satu neuron pada lapisan input. Pola ini akan dirambatkan di sepanjang jaringan syaraf hingga sampai ke neuron pada lapisan output. Lapisan output ini akan membangkitkan pola output yang nantinya akan dicocokkan dengan pola output targetnya. Apabila terjadi perbedaan antara pola output hasil pembelajaran dengan pola target, maka disini akan muncul error. Apabila nilai error ini masih cukup besar, mengindikasikan bahwa masih perlu dilakukan lebih banyak pembelajaran lagi. Terdapat berbagai tipe pembelajaran terawasi beberapa diantaranya Hebb Rule, Perceptron, Delta Rule, Backpropagation, Heteroassociative Memory, Bidirectional Associative Memory BAM, Learning Vector Quantization LVQ. Penelitian ini akan menggunakan propagasi balik backpropagation sebagai metode pembelajaran. Metode propagasi balik merupakan algoritma pembelajaran yang terawasi dan biasanya digunakan oleh perceptron dengan banyak lapisan untuk mengubah bobot-bobot yang terhubung dengan neuron-neuron yang ada pada lapisan tersembunyinya. Algoritma propagasi balik menggunakan error output untuk mengubah nilai bobot-bobotnya dalam arah mundur backward. Untuk mendapatkan error ini, tahap perambatan maju forward propagation harus dikerjakan terlebih dahulu. Pada saat perambatan maju, neuron-neuron diaktifkan dengan menggunakan fungsi aktivasi sigmoit. Siang, 2005. Algoritma backpropagation : ♦ Masing-masing unit masukan Xi, i = 1,….n menerima sinyal masukan X i dan sinyal tersebut disebarkan ke unit-unit bagian berikutnya unit-unit lapisan tersembunyi Universitas Sumatera Utara ♦ Masing-masing unit dilapisan tersembunyi dikalikan dengan faktor penimbang dan dijumlahkan serta ditambah dengan biasanya. ∑ = − + = n i n oj i v X V in Z 1 1 2.1 Kemudian menghitung sesuai dengan fungsi aktifasi yang digunakan: Z 1 = f Z_in 1 2.2 ♦ Masing-masing unit keluaran y k ., k = 1, 2, 3 …..m dikalikan dengan faktor penimbang dan dijumlahkan: ∑ = − + = p p n oj i W Z W in Z 11 1 2.3 Menghitung kembali sesuai dengan fungsi aktifasi y k = f y_in 1 2.4 Back Propgasi dan Galatnya ♦ Masing-masing unit keluaran Y k , k =1,……m menerima pola target sesuai dengan pola masukan saat pelatihan training dan dihitung galatnya: δ k = f k – y k f y_in k 2.5 Karena f’ y_in k = y k menggunakan fungsi sigmoid, maka: F y_in k = f y_in k 1 – f y_in k 2.6 Menghitung perbaikan faktor penimbang kemudian untuk memperbaiki w jk . Δ W kj = α.δ k . Z 1 2.7 Menghitung perbaikan koreksi: Δ W ok = α.δ k 2.8 Dan menggunakan nilai δ k pada semua unit lapisan sebelumnya. Universitas Sumatera Utara ♦ Masing-masing penimbang yang menghubungkan unit-unit lapisan keluaran dengan unit-unit pada lapisan tersembunyi Z j , j = 1…,p dikalikan delta dan dijumlahkah sebagaimana masukan ke unit-unit lapisan berikutnya. 2.9 ∑ = ∂ = ∂ n k jk k W in 1 1 _ Selanjutnya dikalikan dengan turunan dari fungsi aktifasinya untuk menghitung galat. δ 1 = δ_ in 1 f y_in 1 2.10 Kemudian menghitung perbaikan penimbang digunakan untuk memperbaiki V ij . Δ V y = αδ 1 X 1 2.11 Kemudian menghitung perbaikan bias untuk memperbaiki V oj Δ V oj = αδ 1 2.12 Memperbaiki penimbang dan bias ♦ Masing-masing keluaran unit y k , k = 1,…………m diperbaiki bias dan penimbangnya j = 0, ……P. W jk baru = V jk lama + Δ V jk 2.13 Masing-masing unit tersembunyi Z j , j : 1,…….p diperbaiki bias dan penimbangnya j=0,…..n. V jk baru = V jk lama + Δ V jk 2.14 • Uji kondisi pemberhentian akhir iterasi Universitas Sumatera Utara b. Pembelajaran tak terawasi unsupervised learning Pembelajaran tak terawasi tidak memerlukan target output. Pada metode ini, tidak dapat ditentukan hasil yang seperti apakah yang diharapkan selama proses pembelajaran. Selama proses pembelajaran, nilai bobot disusun dalam suatu range tertentu tergantung pada nilai input yang diberikan. Tujuan pembelajaran ini adalah mengelompokkan unit-unit yang hampir sama dengan suatu area tertentu. Pembelajaran ini biasanya sangat cocok untuk pengelompokan klasifikasi pola.Contoh metode pembelajaran tak terawasi adalah jaringan kohonen kohonen network. Suyanto.,2008 2.3. Matlab 2.3.1. Pengertian Matlab