Neural Network Jaringan Syaraf Tiruan Metode Backpropogation

r : nilai red yang dinormalisasi g : nilai green yang dinormalisasi b : nilai blue yang dinormalisasi R : nilai red awal G : nilai green awal B : nilai blue awal Kemudian citra akan dikonversi menjadi citra HSV. Pertama akan dicari nilai Hue dengan persamaan 2.8 sebagai berikut. { - [ - ] [ - ] Dimana H adalah hasil nilai Hue, nilai didapat dengan rumus – , Cmax = max R’,G’,B’ dan Cmin = min R’,G’, B’. Setelah mendapatkan hasil dari Hue akan dilakukan penghitungan untuk mencari hasil niali dari Saturation dan Value dengan menggunakan persamaan 2.7. {

2.5. Neural Network Jaringan Syaraf Tiruan

Jaringan syaraf tiruan JST adalah sistem yang dapat merubah bentuk strukturnya untuk memecahkan masalah yang ada berdasarkan infromasi yang diterima. Jaringan 2.5 2.6 2.7 Universitas Sumatera Utara syaraf tiruan merupakan bentuk pembelajaran yang tercipta karena terinspirasi dari jaringan syaraf manusia, dengan beberapa asumsi, yaitu Hermawan, 2006 : 1. Pemrosesan informasi yang terjadi pada elemen sederhana disebut neuron 2. Sinyal antar neuron saling berhubungan melalui saluran penghubung 3. Setiap saluran penghubung nilai bobot yang kemudian melakukan operasi perkalian dengan sinyal yang ditransmisikan 4. Setiap neuron memberlakukakan fungsi aktivasi pada masukan total Pada JST terdapat empat bagian utama, yaitu: 1. Neuron Neuron atau node adalah sebuah unittempat memproses informasi. Setiap neuron akan menerima input, lalu memproses input yang kemudian akan menghasilkan output Hermawan, 2006. 2. Layer Terdapat 3 layer atau lapisan pada JST, yaitu layer masukan, layer tersembunyi dan layer keluaran Puspitaningrum, 2006. Gambar 2.4 Pola jaringan syaraf tiruan Hermawan, 2006 3. Bobot Bobot adalah nilai yang ada pada koneksi antar neuron. Pada setiap penghubung akan dilakukan operasi perkalian bobot dengan sinyal yang akan melewati penghubung tersebut. 4. Fungsi Aktivasi Fungsi aktivasi merupakan bagisn penting yang menentukan output berdasarkan sinyal input yang diberikan. Setiap neuron akan menerapkan fungsi aktivasi Hermawan, 2006. Universitas Sumatera Utara

2.6. Metode Backpropogation

Algoritma Backpropagation pertama kali dirumuskan oleh Werbos dan dipopulerkan oleh Rumelhart dan McClelland yang digunakan pada jaringan syaraf tiruan yang dengan lapisan jamak atau multi-layer. Algoritma Backpropagation adalah algoritma yang melatih jaringan dengan cara menyebarkan error dari lapisan output hingga ke input, yang mempunyai fungsi untuk mengevaluasi turunan agar mendapatkan target yang diinginkan Puspitaningrum, 2006. Algoritma ini banyak digunakan dan dikombinasikan dengan yang algoritman lain dan diterapkan pada aplikasi yang berbeda Alsmadi et al, 2009 Gambar 2.5 Arsitektur Backpropagation Algorithm Fausset, 1994 Arsitektur algoritma backpropagation terdiri dari tiga layer, yaitu input layer, hidden layer dan output layer. Pada input layer tidak terjadi proses komputasi, namun terjadi pengiriman sinyal input X ke hidden layer. Pada hidden dan output layer terjadi proses komputasi terhadap bobot dan bias dan dihitung pula besarnya output dari hidden dan output layer tersebut berdasarkan fungsi aktivasi tertentu. Dalam algoritma backpropagation ini digunakan fungsi aktivasi sigmoid biner, karena output yang diharapkan bernilai antara 0 sampai 1. Universitas Sumatera Utara Beberapa faktor yang mempengaruhi keberhasilan algoritma backpropagation, antara lain: 1. Inisialisasi bobot Bobot awal menentukan apakah jaringan akan mencapai global minima atau local minima kesalahan, dan seberapa cepat jaringan akan konvergen. 2. Laju pembelajaran Laju pembelajaran merupakan parameter jaringan dalam mengendalikan proses penyesuaian bobot. Nilai laju pembelajaran yang optimal bergantung pada kasus yang dihadapi. Laju pembelajaran yang terlalu kecil menyebabkan konvergensi jaringan menjadi lebih lambat, sedang laju pembelajaran yang terlalu besar dapat menyebabkan ketidakstabilan pada jaringan. 3. Momentum Momentum digunakan untuk mempercepat pelatihan jaringan. Metode momentum melibatkan penyesuaian bobot ditambah dengan faktor tertentu dari penyesuaian sebelumnya. Berikut ini adalah algoritma pelatihan backpropagation Puspitaningrum, 2006 : Langkah 0 : Inisiasi bobot ambil bobot awal bilangan kecil bernilai random. Langkah 1 : Jika kondisi belum berhenti, lakukan langkah 2-9. Langkah 2 : Lakukan langkah 3-8 pada setiap data pelatihan. Fase 1 : Feed Forward propagasi maju Langkah 3 : Setiap unit input menerima sinyal kemudian meneruskan sinyal tersebut ke semua unit selanjutnya lapisan tersembunyi. Langkah 4 : Hitung dengan persamaan 2.8 pada setiap unit lapisan tersembunyi. Kemudian hitung nilai dari =1,2,…,� dengan menggunakan persamaan 2.9. Nilai output diperoleh dengan menggunakan fungsi aktivasi sigmoid biner. ∑ 2.8 Universitas Sumatera Utara = 2.9 Langkah 5 : Hitung seluruh output jaringan pada unit � = 1,2,…, . Hitung nilai dari � pada lapisan output dengan menggunakan persamaan dan kemudian hitung seluruh keluaran output jaringan � = 1,2,…, dengan menggunakan persamaan 2.11. � ∑ 2.10 � � = 2.11 Fase II: Propagasi Mundur backward Langkah 6 : Hitung faktor � di unit output � = 1,2,…, dengan menggunakan persamaan 2.12. � � � � � � 2.12 Kemudian koreksi bobot digunakan untuk memperbaiki nilai : � � 2.13 Langkah 7 : Hitung faktor � unit tersembunyi berdasarkan error pada lapisan tersembunyi =1,2,…,� � ∑ � 2.14 Kalikan nilai tersebut dengan turunan dari fungsi aktivasi untuk mendapatkan nilai errornya dengan menggunakan persamaan 2.15. � = �_ ′ _ = �_ 1 − 2.15 Kemudian hitung koreksi bobot dengan menggunakan persaam 2.16. Universitas Sumatera Utara � ; = 1,2,…,� ; = 0,1,…, 2.16 Fase III : perubahan bobot. Langkah 8 : Hitung semua perubahan bobot Perubahan bobot pada unit output Y k k=1,2,...,m untuk mempernaiki bobot dan bias j0,1,2,...,p yang ditunjukkan pada persamaan 2.17. � � = � � + Δ ; =1,2,…, ; =0,1,…,� 2.17 Perubahan bobot pada unit tersembunyi ditunjukkan pada persamaan 2.18. � � = � � + Δ ; j=1,2, …,� ; =1,2,…, 2.18

2.6. Penelitian Terdahulu