r : nilai red yang dinormalisasi g : nilai green yang dinormalisasi
b : nilai blue yang dinormalisasi R : nilai red awal
G : nilai green awal B : nilai blue awal
Kemudian citra akan dikonversi menjadi citra HSV. Pertama akan dicari nilai Hue dengan persamaan 2.8 sebagai berikut.
{
-
[
-
] [
-
] Dimana H adalah hasil nilai Hue, nilai
didapat dengan rumus – , Cmax = max R’,G’,B’ dan Cmin = min R’,G’, B’. Setelah
mendapatkan hasil dari Hue akan dilakukan penghitungan untuk mencari hasil niali
dari Saturation dan Value dengan menggunakan persamaan 2.7. {
2.5. Neural Network Jaringan Syaraf Tiruan
Jaringan syaraf tiruan JST adalah sistem yang dapat merubah bentuk strukturnya untuk memecahkan masalah yang ada berdasarkan infromasi yang diterima. Jaringan
2.5
2.6
2.7
Universitas Sumatera Utara
syaraf tiruan merupakan bentuk pembelajaran yang tercipta karena terinspirasi dari jaringan syaraf manusia, dengan beberapa asumsi, yaitu Hermawan, 2006 :
1. Pemrosesan informasi yang terjadi pada elemen sederhana disebut neuron
2. Sinyal antar neuron saling berhubungan melalui saluran penghubung
3. Setiap saluran penghubung nilai bobot yang kemudian melakukan operasi
perkalian dengan sinyal yang ditransmisikan 4.
Setiap neuron memberlakukakan fungsi aktivasi pada masukan total Pada JST terdapat empat bagian utama, yaitu:
1. Neuron
Neuron atau node adalah sebuah unittempat memproses informasi. Setiap neuron akan menerima input, lalu memproses input yang kemudian akan
menghasilkan output Hermawan, 2006. 2.
Layer Terdapat 3 layer atau lapisan pada JST, yaitu layer masukan, layer
tersembunyi dan layer keluaran Puspitaningrum, 2006.
Gambar 2.4 Pola jaringan syaraf tiruan Hermawan, 2006
3. Bobot
Bobot adalah nilai yang ada pada koneksi antar neuron. Pada setiap penghubung akan dilakukan operasi perkalian bobot dengan sinyal yang
akan melewati penghubung tersebut. 4.
Fungsi Aktivasi Fungsi aktivasi merupakan bagisn penting yang menentukan output
berdasarkan sinyal input yang diberikan. Setiap neuron akan menerapkan fungsi aktivasi Hermawan, 2006.
Universitas Sumatera Utara
2.6. Metode Backpropogation
Algoritma Backpropagation pertama kali dirumuskan oleh Werbos dan dipopulerkan oleh Rumelhart dan McClelland yang digunakan pada jaringan syaraf tiruan yang
dengan lapisan jamak atau multi-layer. Algoritma Backpropagation adalah algoritma yang melatih jaringan dengan
cara menyebarkan error dari lapisan output hingga ke input, yang mempunyai fungsi untuk
mengevaluasi turunan
agar mendapatkan
target yang
diinginkan Puspitaningrum, 2006.
Algoritma ini banyak digunakan dan dikombinasikan dengan yang algoritman lain dan diterapkan pada aplikasi yang berbeda Alsmadi et al, 2009
Gambar 2.5 Arsitektur Backpropagation Algorithm Fausset, 1994
Arsitektur algoritma backpropagation terdiri dari tiga layer, yaitu input layer, hidden layer dan output layer. Pada input layer tidak terjadi proses komputasi, namun
terjadi pengiriman sinyal input X ke hidden layer. Pada hidden dan output layer terjadi proses komputasi terhadap bobot dan bias dan dihitung pula besarnya output dari
hidden dan output layer tersebut berdasarkan fungsi aktivasi tertentu. Dalam algoritma backpropagation ini digunakan fungsi aktivasi sigmoid biner, karena output yang
diharapkan bernilai antara 0 sampai 1.
Universitas Sumatera Utara
Beberapa faktor yang mempengaruhi keberhasilan algoritma backpropagation, antara lain:
1. Inisialisasi bobot
Bobot awal menentukan apakah jaringan akan mencapai global minima atau local minima kesalahan, dan seberapa cepat jaringan akan
konvergen. 2.
Laju pembelajaran Laju pembelajaran merupakan parameter jaringan dalam mengendalikan
proses penyesuaian bobot. Nilai laju pembelajaran yang optimal bergantung pada kasus yang dihadapi. Laju pembelajaran yang terlalu
kecil menyebabkan konvergensi jaringan menjadi lebih lambat, sedang laju pembelajaran yang terlalu besar dapat menyebabkan ketidakstabilan pada
jaringan. 3.
Momentum Momentum digunakan untuk mempercepat pelatihan jaringan. Metode
momentum melibatkan penyesuaian bobot ditambah dengan faktor tertentu dari penyesuaian sebelumnya.
Berikut ini adalah algoritma pelatihan backpropagation Puspitaningrum, 2006 :
Langkah 0 : Inisiasi bobot ambil bobot awal bilangan kecil bernilai random. Langkah 1 : Jika kondisi belum berhenti, lakukan langkah 2-9.
Langkah 2 : Lakukan langkah 3-8 pada setiap data pelatihan.
Fase 1 : Feed Forward propagasi maju
Langkah 3 : Setiap unit input menerima sinyal kemudian meneruskan sinyal tersebut
ke semua unit selanjutnya lapisan tersembunyi.
Langkah 4 : Hitung dengan persamaan 2.8 pada setiap unit lapisan
tersembunyi. Kemudian hitung nilai dari =1,2,…,� dengan menggunakan
persamaan 2.9. Nilai output diperoleh dengan menggunakan fungsi aktivasi sigmoid
biner. ∑
2.8
Universitas Sumatera Utara
= 2.9
Langkah 5 : Hitung seluruh output jaringan pada unit
� = 1,2,…, . Hitung nilai dari
� pada lapisan output dengan menggunakan persamaan dan
kemudian hitung seluruh keluaran output jaringan � = 1,2,…, dengan
menggunakan persamaan 2.11. �
∑ 2.10
� �
= 2.11
Fase II: Propagasi Mundur backward
Langkah 6 : Hitung faktor
� di unit output � = 1,2,…, dengan menggunakan persamaan 2.12.
� �
� �
� �
2.12
Kemudian koreksi bobot digunakan untuk memperbaiki nilai : �
� 2.13
Langkah 7 : Hitung faktor
� unit tersembunyi berdasarkan error pada lapisan tersembunyi
=1,2,…,� �
∑ � 2.14
Kalikan nilai tersebut dengan turunan dari fungsi aktivasi untuk mendapatkan nilai errornya dengan menggunakan persamaan 2.15.
� =
�_ ′ _ = �_ 1 − 2.15
Kemudian hitung koreksi bobot dengan menggunakan persaam 2.16.
Universitas Sumatera Utara
� ;
= 1,2,…,� ; = 0,1,…,
2.16
Fase III : perubahan bobot.
Langkah 8 : Hitung semua perubahan bobot
Perubahan bobot pada unit output Y
k
k=1,2,...,m untuk mempernaiki bobot dan bias j0,1,2,...,p yang ditunjukkan pada persamaan 2.17.
� � = � � + Δ ;
=1,2,…, ; =0,1,…,� 2.17
Perubahan bobot pada unit tersembunyi ditunjukkan pada persamaan 2.18. � � =
� � + Δ ; j=1,2,
…,� ; =1,2,…, 2.18
2.6. Penelitian Terdahulu