Training Pada Artificial Neural network Perceptron

1 1 h x h x h x ⎡ ⎤ ⎡ ⎤ = + − ⎣ ⎦ ⎣ ⎦ 0.10

2.6 Training Pada Artificial Neural network

Pelatihan adalah metode untuk mengatur nilai dari bobot, di mana pelatihan ini adalah karakteristik yang membedakan neural network yang berbeda. Menurut [Fausett], ada 2 tipe dari pelatihan, yaitu: supervised dan unsupervised. Sebagai tambahan ada neural network yang bobotnya bernilai tetap tanpa proses pelatihan yang berulang.

2.6.1 Supervised Training

Kebanyakan aturan jaringan syaraf tiruan artificial neural network, pelatihan di lakukan dengan menunjukkan sekuens vektor pelatihan atau pola, di mana setiap pola yang ada di asosiasikan dengan vektor output target. Bobot kemudian diatur berdasarkan algoritma learning. Proses inilah yang di kenal sebagai pelatihan terpandu supervised training. Termasuk pada pelatihan terpandu ini adalah: • Perceptron • Adaline • Feedforward Backpropagation network • Statistical trained networks BoltzmannCauchy machines • Radial basis function networks

2.6.2 Unsupervised Training

Pelatihan jenis ini dilakukan dengan menyediakan sekuens vektor input, akan tetapi tidak ada target vektor tertentu yang di spesifikasikan. Neural network tersebut akan memodifikasi bobot sehingga kebanyakan input vektor yang sejenis memiliki unit output yang sama cluster atau proses pengelompokan. Termasuk pada pelatihan tidak terpandu ini adalah: Universitas Sumatera Utara • Hopfield Memory • Bidirectional associative memory • Fuzzy associative memory • Learning vector quantizer

2.7 Perceptron

Pada bab ini akan membahas jaringan syaraf lapis tunggal, termasuk di dalamnya pendekatan klasik pada Neural Computing dan masalah pembelajaran. Pada bagian pertama kita akan diskusikan keunggulan dan keuntungan dari jaringan lapis tunggal dan algoritma pembelajarannya. Pada bagian kedua kita akan diskusikan kelemahan dan keterbatasan dari jaringan syaraf lapis tunggal ini. Kemudian akan dibahas perceptron lapis tunggal dan perceptron lapis ganda. Pada bagian akhir dari bab ini akan dibahas contoh perceptron dengan perhitungan manual, ANN toolbox dan program sendiri dengan bantuan Matlab. Dua pendekatan model klasik dari jaringan syarat lapis tunggal ini adalah: Perceptron, yang diusulkan oleh Rosenblatt Rosenblatt, 1959 dan di akhir tahun 50an dan Adaline, diperkenalkan pada awal tahun 60-an oleh Widrow and Ho_ Widrow Ho_, 1960.

2.7.1 Jaringan dengan threshold dan fungsi aktivasi

Jaringan lapis tunggal alur-majukamus bahasa Indonesia, single layer feed-forward network umumnya terdiri dari satu atau banyak output neurons o, yang masing-masingnya dihubungkan dengan bobot faktor wio ke semua inputs i. contoh yang paling sederhana adalah jaringan yang hanya memiliki dua input dan keluaran tunggal seperti terlihat pada gambar 2.13, Input neuron adalah jumlah input yang tertimbang atau bisa dikatakan bobot x input ditambah dengan faktor bias. Universitas Sumatera Utara Gambar 2.16 Jaringan Syaraf Lapis tunggal dengan satu output dan dua input Jaringan dibentuk oleh output neuron fungsi aktivasi di mana fungsi dari input 2 1 i i i y F w x θ = ⎛ ⎞ = + ⎜ ⎟ ⎝ ⎠ ∑ 0.11 Fungsi aktivasi F bisa linear sedemikian sehingga kita memiliki suatu jaringan linear, atau jaringan yang tidak linear. Pada kasus ini digunakan fungsi thereshold atau Heaviside atau sgn : 1 1 if s F s otherwise ⎧ = ⎨−⎩ 0.12 Dengan demikian output jaringan di batasi bernilai +1 atau -1, tergantung pada input. Jaringan ini bisa digunakan dan diaplikasikan untuk tugas pengelompokan classifier atau pengelompokan polaFauset pattern classification. Jaringan ini bisa memutuskan apakah pola input masuk pada kelompok mana dari dua kelas tadi kelas +1 atau kelas -1. Jika total input bernilai positif, maka pola dikenali sebagai kelas +1, dan jika total input bernilai negatif maka pola input dikenali sebagai kelas -1. pemisahan dua kelas pada kasus ini adalah berupa sebuah garis lurus., yang diberikan oleh sebuah persamaan garis: 1 1 2 2 w x w x θ + + = 0.13 Persamaan garis ini sering disebut sebagai fungsi diskriminan. Universitas Sumatera Utara Secara geometris fungsi diskriminan ini mempresentasikan jaringan linear threashold seperti terlihat pada gambar . Persamaan 0.13 bisa ditulis sebagai berikut: 1 2 1 2 2 w x x w w θ = − − Dari persamaan diatas kita bisa melihat bahwa bobot yang akan menentukan gradient atau kemiringan garis, sementara bias menentukan keluaran o_set untuk melihat seberapa jauh garis determinan ini dari titik pusat 0. Jika vektor bobotnya juga ikut ditampilkan pada input space ini akan selalu tegak lurus pada garis diterminan itu. Gambar 2.17 Jaringan lapis tunggal merepresentasikan suatu fungsi garis pemisah. Universitas Sumatera Utara Gambar 2.18 Jaringan topologi umum feedforward dengan multilayers

2.7.2 Algoritma Feedforward

Untuk membangun jaringan feedforward multilayers dengan pembelajaran algoritma pembelajaran apapun nantinya maka lakukan algoritmafauset di bawah ini: Langkah 0 : Inisialisasi bobot dan bias untuk mudahnya, pengaturan nilai bobot dapat menggunakan nilai nol atau bisa juga dengan menggunakan bilangan random. Set Laju Pembelajaran 1 α ≤ , untuk mudahnya, α bisa diset ke 1. Langkah 1 : Selama kondisi berhenti false, lakukan langkah 2 hingga langkah 6 Langkah 2 : Untuk setiap pasangan data pelatihan, lakukan langkah 3 sampai langkah ke 5 Alur Maju Feedforward: Langkah 3 : Setiap unit input , 1,..., i X i n = menerima sinyal input i x dan membroadcast sinyal tersebut ke semua unit pada lapisan di atasnya unit tersembunyi. Universitas Sumatera Utara Langkah 4 : Setiap unit tersembunyi , 1,..., j Z j p = menjumlahkan sinyal – sinyal input berbobot, 1 _ n j j i i i z in v x v j = = + ∑ gunakan fungsi aktivasi untuk menghitung sinyal outputnya. _ j j z f z in = dan kirimkan sinyal ini ke semua unit di lapisan atasnya unit –unit output. Langkah 5 : Setiap unit output keluaran pada masing-masing neuron , 1,..., k Y k m = menjumlahkan sinyal – sinyal input terbobot, 1 _ p k k j jk j y in w z w = = + ∑ Dan gunakan fungsi aktivasi untuk menghitung sinyal outputnya, keluaran setiap neuron _ k k y f y in =

2.7.3 Perceptron Lapis Ganda

Berikut ini akan dibahas perceptron dengan banyak lapis lebih dari satu. Pembelajaran yang dipakai pada umumnya adalah optimalisasi bobot dengan menggunakan Evolutionary Programming, dan sangat populer dipergunakan. Fase Pelatihan pembelajaran. Fase Prediksi pengujian merupakan subset dari fungsi pembelajaran di mana proses pengujian alur proses pencarian feedforward tidak ada arah perambatan mundur untuk penyesuaian bobot. Pada proses prediksi atau pengujian, bobot memiliki nilai tetap fixed weights. Universitas Sumatera Utara Gambar 2.19 Proses pengujian pada perceptron lapis ganda Multi Layers

2.8 Ilustrasi Proses Feedforward