2.3. Ekstraksi Fitur
Ekstraksi fitur merupakan nilai fitur yang terkandung di dalam sebuah citra yang mewakili ciri khusus dari sebuah citra. Nilai yang didapatkan dari hasil
pengekstraksian fitur dari sebuah citra kemudian akan di proses untuk diklasifikasi. Ekstaksi Fitur yang digunakan di dalam penelitian ini adalah
Direction Feature Extraction
. 2.3.1.
Direction Feature
Direction Feature
adalah pencarian nilai-nilai fitur berdasarkan label arah pada setiap
pixel
. Pada metode
Direction Feature
, setiap
pixel foreground
pada gambar memiliki arah tersendiri dimana arah yang digunakan memiliki empat arah dan masing-masing
arah diberikan label nilai tersendiri Liu Blumenstein, 2008. Arah yang digunakan dapat dilihat pada tabel 2.1 dibawah ini Agung et al, 2009.
Tabel 2.1 Nilai Label dan Arah pada Direction Feature Arah
Nilai Bentuk
Vertikal 2
| Diagonal Kanan
3 Horizontal
4 _
Diagonal Kiri 5
\ Nilai arah pada setiap
pixel
dapat diperoleh melalui proses pengecekan secara raster dari arah kiri ke kanan. Pengecekan secara raster bertujuan untuk mencari pixel yang
memiliki nilai 1 atau
pixel
yang berasal dari
foreground
. Selama pengecekan raster berlangsung, pixel yang memilii nilai1 atau berasal dari
pixel foreground
akan mengecek nilai
neighbour
dari
pixel
tersebut. Apabila P adalah
pixel foreground
yang tercek,
pixel neighbour
akan dicek adalah P1atau P5 terdapat
pixel foreground
maka diberikan label nilai 2, P2 atau P6 terdapat
pixel foreground
maka diberikan label nilai 3, P3 atau P7 terdapat
pixel foreground
maka diberikan label nilai 4, P4 atau P8 terdapat
pixel foreground
maka diberikan label nilai 5. Tabel 2.2 menunjukkan matriks
neighbour
pixel P dalam pelabelan nilai arah.
Universitas Sumatera Utara
Tabel 2.2 Matriks
neighbour
pixel P dalam pelabelan nilai arah P1
P2 P3
P8 P
P4 P7
P6 P5
Selanjutnya, nilai-nilai fitur yang berdimensi sesuai dengan citra biner yang diubah akan mengalami proses transisi. Proses transisi melakukan pengecekan secara raster
dari empat arah kiri ke kanan, kanan ke kiri, atas ke bawah, bawah ke atas. Sebelum melakukan transisi, nilai transisi maksimum didefinisikan terlebih dahulu. Apabila
nilai
T
adalah nilai transisi maksimum yang didefinisikan, nilai W dan H adalah nilai lebar dan tinggi dari citra yang diproses.
Persamaan 2.6 ukuran dari
Direction Feature
dari kiri menuju kanan di bawah ini.
LR
=
T . H
2.6 Persamaan 2.7 ukuran dari transisi pada
Direction Feature
dari kanan menuju kanan dibawah ini.
RL = T . H
2.7 Persamaan 2.8 ukuran dari transisi pada Direction Feature dari atas menuju bawah
dibawah ini.
UD = T . W
2.8 Persamaan 2.9 ukuran dari transisi pada Direction Feature dari bawah menuju atas
dibawah ini.
DU = T . W
2.9 Dimana
:
LR
= ukuran transisi kiri ke kanan
RL
= ukuran transisi kanan ke kiri
UD
= ukuran transisi atas ke bawah
DU
= ukuran transisi bawah ke atas
T =
nilai transisi
W
= lebar dari citra asli
H =
tinggi dari citra asli
Universitas Sumatera Utara
Proses berikutnya adalah menormalkan ukuran fitur dari transisi fitur pertama sekali pada
Direction Feature
. Proses menormalkan ukuran matriks transisi bertujuan untuk mengecilkan data input fitur supaya proses pengklasifikasian menghasilkan hasil yang
lebih akurat dan proses yang tidak memakan waktu terlalu banyak. Ukuran penormalan citra dilakukan secara berurutan dengan menjumlahkan baris pertama
sampai dengan baris yang berindeks jumlah transisi setiap arah. Persamaan 2.10 menunjukkan ukuran normalisasi dari nilai transisi
direction feature
. 2.10
Dimana : NS = ukuran fitur normalisasi setiap arah
DT =ukuran transisi pada direction feature pada setiap arah kiri ke kanan, kanan ke kiri, atas ke bawah, bawah ke atas
T = nilai transisi Hasil akhir yang dihasilkan oleh fitur ekstraksi
Direction Feature
adalah nilai normalisasi dari keempat arah yang digabungkan. Nilai fitur akhir dari
Direction Feature
memiliki ukuran yang berukuran dengan jumlah dari normalisasi keempat arah. Persamaan 2.11 menunjukkan ukuran akhir dari nilai fitur yang dihasilkan.
2.11 Dimana
: DF = ukuran dari hasil akhir
Direction Feature
NS = ukuran fitur normalisasi setiap arahkiri ke kanan, kanan ke kiri, atas ke bawah, bawah ke atas
T = nilai transisi
2.4.
Backpropagation
Jaringan
feed-forward
dapat digunakan untuk bermacam masalah klasifikasi dan pengenalan. Di dalam algoritma
Backpropagation
, tidak penting untuk mengetahui model matematika dari permasalahan pengenalan dan klasifikasi untuk melatih dan
kemudian memanggil informasi yang berasal dari jaringan Khusbu Mehta, 2013.
Universitas Sumatera Utara
Di dalam algoritma ini, apabila arsitektur dari jaringan yang dipilih tepat dan sekumpulan data training yang memadai disertakan, jaringan
Backpropagation
akan memberikan solusi yang tepat Khusbu Mehta, 2013.
Langkah-langkah yang dilakukan oleh algoritma Backpropagation adalah sebagai berikut Khusbu Mehta, 2013:
1. Data
input
disertakan di dalam elemen yang memproses lapisan pertama dari jaringan
Backpropagation
dan diperbanyak sepanjang jalur penghubung menuju lapisan pertama.
2. Setiap elemen pemrosesan,
h
di dalam
hidden layer
menghitung jumlah dari bobot
input
dari setiap
input
,
i
, dari lapisan sebelumnya. Persamaan 2.12 menunjukkan jumlah bobot yang terdapat pada setiap elemen di lapisan
input
yang menuju lapisan
hidden.
2.12 Dimana
:
Weighted sum h
= jumlah bobot pada elemen dari lapisan
input
ke
hiddden weight
h
= bobot pada elemen dari lapisan
input
ke
hidden input h
= nilai input yang berada pada lapisan
hidden
. 3.
Keluaran dari pemrosesan pada lapisan
hidden
¸
h
, kemudian dikalkulasikan dengan fungsi aktivasi, f, dan kemudian diperbanyak ke lapisan selanjutnya.
Fungsi aktivasi sigmoidal biasanya adalah fx = 1 1+ex. Persamaan 2.13 menunjukkan perhitungan fungsi aktivasi sigmoid keluaran elemen
h
dari lapisan
hidden
. 2.13
Dimana :
Hidden output h =
nilai dari fungsi aktivasi sigmoidal elemen
h
dari lapisan hidden
weighted sum
h
= jumlah bobot di elemen
h bias
h
= nilai bias pada elemen
h
4. Langkah pada nomor 2 dan nomor 3 mengalami perulangan pada lapisan
hidden
sampai lapisan
output
dijangkau.
Universitas Sumatera Utara
5. Setiap elemen pemrosesan o, di dalam lapisan
output
mengkalkulasikan jumlah dari bobot i
nput
yang berada pada setiap elemen
h
, dari lapisan sebelumnya. Persamaan 2.14 menunjukkan jumlah bobot yang berasal dari lapisan
hidden
menuju lapisan
output
. , untuk semua elemen h 2.14
Dimana :
Weighted sum o
= jumlah bobot dari lapisan
hidden
menuju
output weight oh
= jumlah bobot pada elemen h pada
hidden
ke
output layer input oh
= nilai
input
yang berada pada lapisan
output
6. Nilai keluaran dari elemen pemrosessan lapisan
output
o, kemudian dikalkulasikan dengan fungsi aktivasi, f. Persamaan 2.15 menunjukkan
perhitungan fungsi aktivasi elemen
o
di lapisan
output
. 2.15
Dimana :
Output o
= nilai dari fungsi aktivasi elemen
o
di lapisan
output weighted sum o
= jumlah bobot di elemen
o bias o
= nilai bias di elemen
o
7. Nilai output yang telah dihitung dibandingkan dengan
output
tujuan untuk menghitung nilai
error
untuk setiap elemen pemrosesan lapisan
output
. Turunan dari fungsi aktivasi f digunakan untuk mencari nilai rata-rata perubahan. Untuk
contoh ini f’x = fx 1-fx. Persamaan 2.16 menunjukkan perhitungan kesalahan yang terjadi di lapisan output. Perulangan dan jaringan mempelajari
ketika melakukan perulangan sampai menemukan nilai error yang paling kecil. 2.16
Dimana :
Error o
= nilai
error
yang terdapat pada setap elemen
o target o =
nilai elemen pada node target elemen
o output o
= nilai output pada elemen
o weightedsumo
= jumlah beban pada elemen
o biaso
= nilai bias pada elemen
o
8.
Error
pada lapisan-lapisan
hidden
di dalam elemen pemrosesan dihitung dengan melajukan
error
kembali melalui jaringan. Sangat penting bahwa weighted
h
adalah bobot dari output unit,o yang berhubungan dengan unit
hidden
, h. Persamaan 2.17 menunjukkan
2.17 Dimana
:
Error h =
nilai error yang terdapat pada setiap elemen
h
Universitas Sumatera Utara
weightedsumh
= jumlah bobot yang berada pada elemen
h biash
= nilai bias yang terdapat pada elemen
h erroro =
nilai error yang terdapat pada elemen
o
weightoh = nilai bobot yang berada pada elemen o 9.
Bobot-bobot di dalam lapisan
output
telah terupdate, β =
learning rate
diantara 1 dan 0, α = konstanta momentum. Penggunaan βerroro mewakili peran dari
delta
. Input
o
adalah nilai input bergerak di jalur-jalur yang berasal dari lapisan
hidden
menuju lapisan
output
. Persamaan 2.18 menunjukkan proses update bobot yang dilakukan oleh
Backpropagation
pada lapisan
output
.
2.18 Dimana
:
Weighto
= bobot pada elemen
o t =
indeks elemen pada bobot α = konstanta momentum
β =
learning rate
antara 1 dan 0
erroro
= nilai error pada elemen
o
input = nilai input dari lapisan hidden menuju output. input2 = nilai input dari lapisan hidden menuju output selanjutnya.
10. Bobot-bobot pada setiap lapisan
hidden
telah terupdate. β = konstanta
learning rate
antara 1 dan 0, α = konstanta momentum. Persamaan 2.19 menunjukkan proses update bobot yang dilakukan oleh
Backpropagation
pada lapisan
hidden
.
2.19 Dimana
:
Weighth
= bobot pada elemen
o t =
indeks elemen pada bobot α = konstanta momentum
Universitas Sumatera Utara
β = konstanta
learning rate errorh
= nilai error pada elemen
h
input = nilai input dari lapisan hidden menuju output. input2 = nilai input dari lapisan hidden menuju output selanjutnya.
Dalam menjalankan algoritma
Backpropagation
, proses feedforward menjalankan langkah 1 sampai 6 dan proses backpropagation terjadi selama langkah 7 sampai 10
untuk mengecek
error
yang dihasilkan Khusbu Mehta, 2013.
2.5. Penelitian Terdahulu