Pengenalan Wajah Dengan Pemrosesan Awal Transformasi Wavelet

PENGENALAN WAJAH DENGAN PEMROSESAN AWAL
TRANSFORMASI WAVELET

THESSI CAHYANINGTIAS
G64103040

DEPARTEMEN ILMU KOMPUTER
FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM
INSTITUT PERTANIAN BOGOR
2007

PENGENALAN WAJAH DENGAN PEMROSESAN AWAL
TRANSFORMASI WAVELET

Skripsi
Sebagai salah satu syarat untuk memperoleh
gelar Sarjana Komputer pada
Departemen Ilmu Komputer

THESSI CAHYANINGTIAS
G64103040


DEPARTEMEN ILMU KOMPUTER
FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM
INSTITUT PERTANIAN BOGOR
2007

ABSTRAK
THESSI CAHYANINGTIAS. Pengenalan Wajah dengan Pemrosesan Awal Transformasi
Wavelet. Dibimbing oleh AZIZ KUSTIYO dan ARIEF RAMADHAN.
Biometrik adalah suatu sistem pengenalan pola yang melakukan proses identifikasi personal
menggunakan karakteristik fisiologis manusia seperti mata, sidik jari, wajah, tangan, suara, dan
lain lain. Karena wajah merupakan salah satu karakteristik fisiologis manusia yang tidak mudah
dipalsukan, maka penelitian pengenalan pola ini menggunakan biometri wajah.
Data yang digunakan pada penelitian ini sebanyak 100 wajah yang didapat dari University
Cambridge terdiri atas 10 wajah dengan 10 ekspresi dan variasi berbeda. Wajah yang menjadi
input proses pengenalan wajah terbagi menjadi dua perlakukan, yaitu wajah tanpa pemrosesan
awal transformasi wavelet dan wajah yang mengalami pemrosesan awal transformasi wavelet.
Induk wavelet yang digunakan adalah Haar. Proses transformasi digunakan untuk mengekstraksi
fitur sekaligus mereduksi dimensi citra yang berukuran besar menjadi lebih kecil, sehingga
mempercepat waktu komputasi proses pengenalan wajah. Proses transformasi menerapkan bank

filter untuk mendekomposisi citra hingga level 3. Proses dekomposisi menghasilkan citra
pendekatan dan citra detil. Citra yang digunakan pada proses pengenalan wajah adalah citra
pendekatan level 1, level 2, dan level 3.
Proses pengenalan wajah pada penelitian ini menggunakan Jaringan Syaraf Tiruan Propagasi
Balik karena dinilai dapat menangani pengenalan pola-pola kompleks dengan sangat baik.
Parameter yang diamati adalah nilai generalisasi optimum untuk mendapatkan kombinasi hidden
neuron, toleransi kesalahan, dan level dekomposisi.
Hasil dari percobaan ini menyatakan bahwa nilai generalisasi yang berasal dari citra
pendekatan hasil dekomposisi lebih baik daripada citra tanpa praproses dekomposisi. Nilai
generalisasi rata-rata mencapai 98% yang berasal dari citra pendekatan level 3 dengan
toleransi kesalahan 10-3. Jumlah hidden neuron saat mencapai nilai generalisasi terbaik
adalah 40, 70, dan 90.

Persembahan Ananda untuk Mama, Papa, dan Adikku
“Maaf Ma, Pa...., Ci kurang bisa dijadikan teladan”
“Za...., kau harapan kedua dan terakhir Mama, Papa”

“Kan Ku raih citaku dengan segenap kekuatanku”
“Dan Ku mohon ridha Mu ya Allah dalam meraih citaku”


“Ilmu itu pemimpin, dan amal adalah pengikutnya”
Hr.Ibn Abdul al-Barr.
“Begitu luas Ilmu Mu ya Allah,
Ku mohon berikan hamba setetes ilmu guna meraih citaku”

Judul Skripsi

: Pengenalan Wajah dengan Pemrosesan Awal Transformasi
Wavelet
: Thessi Cahyaningtias
: G64103040

Nama
NIM

Menyetujui,
Pembimbing I

Pembimbing II


Aziz Kustiyo, S.Si., M.Kom.
NIP 132206241

Arief Ramadhan, S.Kom.

Mengetahui,
Dekan Fakultas Matematika Dan Ilmu Pengetahuan Alam
Institut Pertanian Bogor

Prof. Dr. Ir. Yonny Koesmaryono, M.S.
NIP 131473999

Tanggal Lulus:

RIWAYAT HIDUP
Penulis dilahirkan di Subang tanggal 18 Mei 1985. Penulis adalah anak pertama dari dua
bersaudara pasangan Ir. Agustias Amin dan Nining Choeriah, BSc.
Penulis menjalani pendidikan SLTA di SMAN 1 Subang sampai dengan tahun 2003.
Setelah lulus pada tahun 2003, penulis diterima sebagai mahasiswi Departemen Ilmu Komputer
IPB melalui jalur USMI (Undangan Seleksi Masuk IPB). Pada bulan Juli sampai dengan Agustus

2006, penulis melakukan Praktik Kerja Lapangan di Bangtekja Lapan, Jakarta Timur.

PRAKATA
Segala puji dan syukur penulis ucapkan kepada Allah SWT, karena atas ridha dan
rahmat-Nya penulis dapat menyelesaikan tugas akhir mengenai pengenalan wajah dengan
pemrosesan awal transformasi wavelet. Kegiatan ini telah dilakukan selama kurang lebih enam
bulan. Pelaksanaan kegiatan ini dimulai dari pertengahan Januari 2007 sampai dengan awal Juni
2007.
Selama proses penyelesaian tugas akhir ini penulis dibimbing oleh Bapak Aziz Kustiyo,
S.Si, M.Kom selaku dosen pembimbing 1 dan Bapak Arief Ramadhan, S.Kom selaku dosen
pembimbing 2. Selama menyelesaikan tugas akhir ini, penulis mendapatkan pengetahuan baru
mengenai proses transformasi suatu citra digital, dimana dalam penelitan ini metode transformasi
yang digunakan adalah wavelet.
Melalui skripsi ini penulis ucapkan terima kasih kepada berbagai pihak yang telah
membantu dalam pelaksanaan tugas akhir ini, di antaranya yaitu:
1

Kepada kedua orang tua dan adik tercinta atas dukungan, doa, dan perhatian selama proses
penyelesaian tugas akhir.


2

Bapak Aziz Kustiyo, S.Si, M.Kom selaku dosen pembimbing 1 dan Bapak Arief Ramadhan,
S.Kom selaku dosen pembimbing 2 yang telah banyak memberikan masukan berupa saran
dan nasihat dalam menghadapi permasalahan yang terjadi saat mengerjakan tugas akhir.

3

Teman-teman Malea Ilkom (Enno, Atik, Hida, Yustin) yang bersedia mendengarkan keluh
kesah atas kesulitan yang penulis hadapi, terima kasih juga atas saran-saran yang diberikan
kepada penulis.

4

Kakak Icut yang tinggal di Malea juga, terima kasih atas kelakarnya sehingga membuat
penulis tertawa, walaupun terkadang kesal. Terima kasih juga sudah bersedia menemani
begadang ketika dibutuhkan.

5


Egi teman satu bimbingan atas masukan dan sarannya.

6

Teman-teman RZ yang sudah memberikan tempat berteduh sementara di kala lelah.

7

Teman-teman Ilkom 40 atas dukungan dan kehadirannya ketika seminar hasil tugas akhir.

8

Pihak-pihak lain yang tidak dapat dituliskan namanya yang telah membantu dalam
pelaksanaan tugas akhir.

Penulisan skripsi ini masih jauh dari sempurna, sehingga kritik dan saran akan selalu
diterima dengan terbuka. Semoga tulisan ini bermanfaat.

Bogor, Juli 2007


Thessi Cahyaningtias

viii

DAFTAR ISI
Halaman
DAFTAR TABEL............................................................................................................................ ix
DAFTAR GAMBAR ....................................................................................................................... ix
DAFTAR LAMPIRAN..................................................................................................................... x
PENDAHULUAN ............................................................................................................................ 1
Latar Belakang ............................................................................................................................. 1
Tujuan........................................................................................................................................... 1
Ruang Lingkup............................................................................................................................. 1
Manfaat......................................................................................................................................... 1
TINJAUAN PUSTAKA ................................................................................................................... 1
Representasi Citra Digital ............................................................................................................ 1
Transformasi Wavelet .................................................................................................................. 2
Dekomposisi Haar ........................................................................................................................ 2
Jaringan Syaraf Tiruan ................................................................................................................. 4
Propagasi Balik ............................................................................................................................ 4

METODE PENELITIAN.................................................................................................................. 5
Data............................................................................................................................................... 5
Proses Pengenalan Wajah ............................................................................................................ 5
Pengenalan Wajah Menggunakan JST Propagasi Balik.............................................................. 5
Parameter Percobaan.................................................................................................................... 6
Lingkungan Pengembangan......................................................................................................... 6
HASIL DAN PEMBAHASAN ........................................................................................................ 6
Percobaan 1: Pengenalan Wajah tanpa Proses Dekomposisi.................................................... 6
Percobaan 2: Pengenalan Wajah dengan Praproses Dekomposisi Wavelet ............................... 7
Proses Pengenalan Wajah ............................................................................................................ 8
Perbandingan Kedua Jenis Percobaan ....................................................................................... 10
KESIMPULAN DAN SARAN ...................................................................................................... 10
Kesimpulan................................................................................................................................. 10
Saran ........................................................................................................................................... 11
DAFTAR PUSTAKA ..................................................................................................................... 11

ix

DAFTAR TABEL
Halaman

1 Struktur JST propagasi balik ......................................................................................................... 6
2 Definisi kelas target ....................................................................................................................... 6
3 Generalisasi terbaik tiap toleransi kesalahan................................................................................. 7
4 Generalisasi terbaik level 1............................................................................................................ 8
5 Generalisasi terbaik level 2............................................................................................................ 9
6 Generalisasi terbaik level 3.......................................................................................................... 10
7 Generalisasi terbaik percobaan 1 dan percobaan 2 ..................................................................... 10
8 Perbandingan waktu komputasi pengenalan wajah (detik)........................................................ 10

DAFTAR GAMBAR
Halaman
1 Fungsi koordinat sebagai representasi citra digital. ................................................................... 2
2 Blok diagram analisis filter.......................................................................................................... 2
3 Proses dekomposisi wavelet Haar level 3. .................................................................................. 2
4 Tampilan citra hasil dekomposisi. ............................................................................................... 2
5 Bank filter Haar............................................................................................................................ 2
6 Bank filter Haar menggunakan algoritma piramida Mallat. ....................................................... 3
7 Algoritma piramida Mallat. ......................................................................................................... 3
8 Matriks yang akan didekomposisi. .............................................................................................. 3
9 Nilai a dan c kolom pertama. ....................................................................................................... 3

10 Matriks nilai a dan c perkolom. ................................................................................................... 3
11 Nilai a dan c baris pertama. ......................................................................................................... 3
12 Hasil akhir dekomposisi............................................................................................................... 3
13 Model JST sederhana................................................................................................................... 4
14 Arsitektur JST propagasi balik. ................................................................................................... 4
15 Tahapan proses pengenalan wajah . ............................................................................................ 5
16 Generalisasi dengan toleransi kesalahan 0.1. .............................................................................. 6
17 Generalisasi dengan toleransi kesalahan 0.01. ............................................................................ 6
18 Generalisasi dengan toleransi kesalahan 0.001. .......................................................................... 7
19 Citra dekomposisi level 1. ........................................................................................................... 7
20 Citra dekomposisi level 2. ........................................................................................................... 7
21 Citra dekomposisi level 3. ........................................................................................................... 7
22 Deskripsi citra dekomposisi......................................................................................................... 7
23 Generalisasi Haar level 1 dengan toleransi kesalahan 0.1. ......................................................... 8
24 Generalisasi Haar level 1 dengan toleransi kesalahan 0.01. ....................................................... 8
25 Generalisasi Haar level 1 dengan toleransi kesalahan 0.001. ..................................................... 8
26 Generalisasi Haar level 2 dengan toleransi kesalahan 0.1. ......................................................... 8
27 Generalisasi Haar level 2 dengan toleransi kesalahan 0.01. ....................................................... 9
28 Generalisasi Haar level 2 dengan toleransi kesalahan 0.001. ..................................................... 9
29 Generalisasi Haar level 3 dengan toleransi kesalahan 0.1. ......................................................... 9
30 Generalisasi Haar level 3 dengan toleransi kesalahan 0.01. ....................................................... 9
31 Generalisasi Haar level 3 dengan toleransi kesalahan 0.001. ................................................... 10
32 Perbandingan generalisasi terbaik dari dua jenis percobaan..................................................... 10

x

DAFTAR LAMPIRAN
Halaman
1 Algoritma jaringan syaraf tiruan propagasi balik........................................................................ 13
2 Citra wajah untuk data pelatihan ................................................................................................. 15
3 Citra wajah untuk data pengujian ................................................................................................ 16
4 Tabel generalisasi toleransi kesalahan 0.1................................................................................... 17
5 Tabel generalisasi toleransi kesalahan 0.01 ................................................................................ 22
6 Tabel generalisasi toleransi kesalahan 0.001 .............................................................................. 27

1

PENDAHULUAN
Latar Belakang
Sistem biometrik adalah suatu sistem
pengenalan pola yang melakukan identifikasi
personal dengan menentukan keotentikan dari
karakteristik fisiologis dari perilaku tertentu
yang dimiliki seseorang. Karakteristik
fisiologis manusia yang digunakan pada
sistem biometrik harus memenuhi beberapa
kriteria, yaitu universal, unik, permanen, dan
dapat diukur secara kuantitatif, di antaranya
mata (retina dan iris), sidik jari, tangan, suara,
dan wajah. Salah satu karakteristik fisiologis
yang tidak mudah dipalsukan yaitu wajah,
oleh karena itu penelitian ini menggunakan
biometrik wajah.
Secara umum sistem pengenalan citra
wajah terbagi menjadi dua jenis, yaitu system
feature based (fitur yang diekstraksi berasal
dari komponen citra wajah seperti mata,
hidung, mulut) yang memodelkan secara
geometris hubungan antara fitur-fitur tersebut
dan metode kedua menggunakan informasi
mentah dari piksel citra yang kemudian
direpresentasikan dalam metode tertentu
(transformasi wavelet, principal component
analysis (PCA), dan lain lain) untuk
digunakan pada pelatihan dan pengujian
identitas citra.
Penelitian ini menggunakan pendekatan
kedua, yaitu piksel citra wajah diproses
terlebih dahulu menggunakan transformasi
wavelet. Transformasi wavelet pada penelitian
ini digunakan sebagai metode ekstraksi fitur
sekaligus mereduksi dimensi citra wajah yang
berukuran besar menjadi lebih kecil untuk
mempercepat waktu komputasi pada saat
melakukan proses pengenalan citra wajah.
Pemilihan transformasi wavelet ini
didasarkan pada dua penelitian sebelumnya
yang pertama berjudul Pengenalan Citra
Wajah
dengan
Pemrosesan
Awal
Transformasi Wavelet oleh Resmana Lim, dan
kawan kawan. Pada penelitian ini induk
wavelet yang digunakan adalah Daubechies
dan metode untuk klasifikasi adalah k-nearest
neighbour. Penelitian ini mencapai nilai
keberhasilan sebesar 94%. Pada penelitian
yang kedua berjudul Klasifikasi Sidik Jari
dengan Pemrosesan Awal Transformasi
Wavelet oleh Minarni, penelitian ini
menggunakan induk wavelet Haar dan
Daubechies dengan metode klasifikasi LVQ
(Learning Vector Quantizations). Penelitian
ini membandingkan unjukkerja kedua induk

wavelet, dengan hasil Daubechies dapat
meningkatkan unjukkerja pengenalan sebesar
1%.
Metode yang digunakan dalam proses
pengenalan wajah pada penelitian ini adalah
jaringan syaraf tiruan propagasi balik karena
metode ini dinilai sangat baik dalam
menangani pengenalan pola-pola kompleks
(Puspaningrum 2006).
Tujuan
Penelitian
ini
bertujuan
untuk
menganalisis kinerja jaringan syaraf tiruan
dalam pengenalan wajah yang mengalami
praproses transformasi wavelet dengan
jaringan syaraf tiruan tanpa praproses
transformasi wavelet.
Ruang Lingkup
Penelitian
ini
melakukan
proses
pengenalan citra wajah menggunakan citra
berskala keabuan, dengan ukuran citra
sebenarnya 48x48 piksel dan menerapkan
proses
ekstraksi
fitur
menggunakan
transformasi wavelet. Induk wavelet yang
digunakan pada penelitian ini adalah wavelet
Haar.
Metode yang digunakan pada proses
pengenalan wajah adalah jaringan syaraf
tiruan propagasi balik dengan inisialisasi
bobot Nguyen Widrow. Fungsi aktivasi yang
digunakan
sigmoid
biner
dan
laju
pembelajaran 0.1.
Manfaat
Penelitian
ini
diharapkan
dapat
menambah pustaka dalam sistem biometrik
terutama identifikasi manusia dengan wajah
untuk kemudian dapat diimplementasikan
pada bidang-bidang lain, misalnya bidang
hukum dan sistem keamanan.

TINJAUAN PUSTAKA
Representasi Citra Digital
Citra didefinisikan sebagai suatu fungsi
dua dimensi f(x,y), dengan x, y merupakan
koordinat spasial, dan f disebut sebagai
kuantitas bilangan skalar positif yang
memiliki maksud secara fisik ditentukan oleh
sumber citra. Suatu citra digital yang
diasumsikan
dengan
fungsi
f(x,y)
direpresentasikan
dalam
suatu
fungsi
koordinat berukuran M x N. Variabel M
adalah baris dan N adalah kolom sebagaimana
ditunjukkan pada Gambar 1.

2

Gambar 2 Blok diagram analisis filter.
Gambar 1 Fungsi koordinat sebagai
representasi citra digital.
Setiap elemen dari array matriks disebut
image element, picture element, pixel, atau pel
(Gonzales & Woods 2002).
Citra dengan skala keabuan berformat 8bit memiliki 256 intensitas warna yang
berkisar pada nilai 0 sampai 255. Nilai 0
menunjukkan tingkat paling gelap (hitam) dan
255 menunjukkan tingkat paling cerah (putih).

Koefisien pendekatan dihasilkan oleh lowpass (g[n]) dan koefisien detil dihasilkan oleh
high-pass (h[n]).
Pada penelitian ini proses dekomposisi
dilakukan sampai dengan level tiga. Adapun
prosesnya ditunjukkan pada Gambar 3.

Transformasi Wavelet
Wavelet berasal dari sebuah fungsi
penyekala (scaling function) (Stollnitz et al.
1995a). Fungsi ini dapat membuat sebuah
induk wavelet (mother Wavelet). Wavelet wavelet lainnya akan muncul dari hasil
penyekalaan, dilasi dan pergeseran induk
wavelet.
Secara umum transformasi wavelet
kontinu dituliskan

γ ( s, τ ) = ∫ f (t )ψ s ,τ (t )dt

Gambar 3 Proses dekomposisi wavelet Haar
level 3.
Variabel cD[n] pada Gambar 3 sebagai citra
detil yang terdiri atas horizontal, vertikal, dan
diagonal, variabel cA[n] sebagai citra
pendekatan. Adapun tampilan dalam bentuk
citra diperlihatkan pada Gambar 4.

(1)

Persamaan (1) menunjukkan bagaimana suatu
fungsi f(t) didekomposisi ke dalam suatu
himpunan dengan fungsi dasar ψ s ,τ (t ) yang
disebut sebagai wavelet. Variabel s,
dan τ menunjukkan skala dan pergeseran
(Burrus & Guo 1998).
Valens (2004) mengatakan wavelet yang
diturunkan dari wavelet dasar tunggal
ψ (t ) yang disebut induk wavelet dengan
skala (scaling) dan pergeseran (translation)
dituliskan dalam persamaan (2).

ψ s ,τ (t ) =

1
s

⎛ t −τ ⎞

⎝ s ⎠

ψ⎜

(2)

Pengembangan sinyal berdimensi dua
(2D) biasanya diterapkan bank filter untuk
melakukan proses dekomposisi citra. Citra
yang
mengalami
dekomposisi
akan
menghasilkan citra pendekatan berupa
koefisien
pendekatan
(approximation
coefficients) dan citra detil berupa koefisien
detil (detail coefficients) sebagaimana
ditunjukkan pada Gambar 2.

Gambar 4 Tampilan citra hasil dekomposisi.
Proses dekomposisi akan mengekstraksi
fitur sekaligus mereduksi ukuran citra menjadi
lebih kecil, sehingga mempercepat proses
pengenalan wajah.
Dekomposisi Haar
Proses dekomposisi Haar menerapkan
bank filter dengan h0 = h1= 1 2 sebagai
koefisien low-pass yang menghasilkan citra
pendekatan, dan g0= 1 2 , g1= − 1 2 sebagai
koefisien high-pass yang menghasilkan citra
detil. Adapun bank filter Haar dapat dilihat
pada Gambar 5.

Gambar 5 Bank filter Haar.
Stephane Mallat memperkenalkan cara
mudah untuk menghitung hasil dekomposisi
dengan menggunakan algoritma piramida

3

Mallat (Stollnitz et al. 1995b). Mallat
memberi nilai koefisien low-pass, h0 = h1 =
1 2 dan koefisien high-pass, g0= 1 2 , g1= − 1 2 ,
sehingga bank filter Haar menjadi seperti
yang ditunjukkan Gambar 6.
Gambar 9 Nilai a dan c kolom pertama.
Proses penghitungan nilai a dan c dilanjutkan
sampai dengan kolom terakhir, sehingga
didapat hasil yang ditunjukkan Gambar 10.

Gambar 6 Bank filter Haar menggunakan
algoritma piramida Mallat.
Variabel ai pada Gambar 6 merupakan citra
pendekatan, ci merupakan citra detil, dan si
adalah himpunan bilangan yang akan
didekomposisi. Adapun piramida Mallat
ditunjukkan pada Gambar 7.

Gambar 7 Algoritma piramida Mallat.
Inti dari piramida Mallat untuk
dekomposisi level 1 adalah nilai ai diperoleh
dengan rumus a i = s i + s i + 1 , dan nilai ci
2
diperoleh dengan rumus ci = si − ai . Si adalah

Gambar 10 Matriks nilai a dan c perkolom.
Langkah kedua, ambil piksel matriks
perbaris dari Gambar 10, sebagai contoh
piksel baris pertama bernilai 5 5 4 3 6 6.
Kemudian hitung nilai a dan c (Gambar 11).

Gambar 11 Nilai a dan c baris pertama.
Nilai a dan c dihitung sampai baris
terakhir, kemudian kumpulkan nilai a dan c.
Matriks hasil pengumpulan nilai a dan c
merupakan hasil akhir proses dekomposisi
level satu. Gambar matriks hasil dekomposisi
level satu diperlihatkan pada Gambar 12.

piksel citra yang diambil perkolom. Kemudian
hasil dari dekomposisi kolom didekomposisi
kembali perbaris.
Contoh proses dekomposisi level 1 suatu
matriks berukuran 6x6 yang dapat dilihat pada
Gambar 8.

Gambar 8 Matriks yang akan didekomposisi.
Langkah pertama ambil piksel matriks
perkolom, sebagai contoh piksel kolom
pertama yang bernilai 4 6 2 3 8 2. Kemudian
hitung nilai a dan c (Gambar 9).

Gambar 12 Hasil akhir dekomposisi.
Bilangan matriks yang diberi warna
merah adalah citra pendekatan dan sisanya
citra detil. Jika ingin melanjutkan proses
dekomposisi ke level dua, maka bilangan
matriks yang digunakan adalah bilangan yang
termasuk citra pendekatan, berikut seterusnya
jika menambah level dekomposisi.
Reduksi citra hasil dekomposisi adalah
setengah dari ukuran citra sebenarnya. Pada
contoh di atas ukuran matriks sebenarnya 6x6,
maka ukuran matriks hasil dekomposisi level
satu adalah 3x3.

4

Jaringan Syaraf Tiruan
Jaringan syaraf tiruan (JST) adalah suatu
pemrosesan informasi yang memiliki
karakteristik-karakteristik
menyerupai
jaringan syaraf biologis.
JST ditentukan oleh tiga hal (Siang
2005):
a

Pola hubungan antar neuron (arsitektur
jaringan).

b

Metode untuk menentukan bobot
penghubung (metode training/learning/
algoritma).

c

Fungsi aktivasi.

Arsitektur dari jaringan syaraf tiruan
terdiri dari 3 macam, yaitu lapisan tunggal
(single layer), lapisan jamak (multilayer), dan
lapisan kompetitif (competitive layer).
Lapisan tunggal adalah arsitektur yang
memiliki satu lapisan hubungan bobot.
Lapisan jamak adalah arsitektur jaringan
dengan satu lapisan atau lebih dari neuron
yang tersembunyi antara input dan output
neuron. Lapisan kompetitif adalah arsitektur
yang membentuk satu bagian dari sejumlah
besar jaringan-jaringan syaraf.
Metode penentuan bobot terdiri atas tiga
jenis, yaitu melalui pelatihan terbimbing
(supervised learning), pelatihan tidak
terbimbing (unsupervised learning), dan
jaringan bobot tetap (fixed weight). Pelatihan
terbimbing adalah pelatihan tanpa vektor
output target yang didefinisikan. Jaringan
bobot tetap adalah pelatihan untuk masalah
optimasi.
Fungsi aktivasi yang umum digunakan
jaringan syaraf tiruan adalah:
• Fungsi Sigmoid biner
f (x) =

1
1 + e −α

• Fungsi Sigmoid bipolar
f (x) =

1 − e −α
1 + e −α

Contoh model JST sederhana ditunjukkan
pada Gambar 13.

Y menerima input dari neuron x1,x2, dan x3
dengan hubungan masing-masing bobot w1,
w2, dan w3. Ketiga impuls neuron dijumlahkan
net = x1w1 + x2w2 + x3w3
Besarnya impuls yang diterima oleh Y
mengikuti fungsi aktivasi y = f(net). Jika nilai
fungsi aktivasi cukup kuat, maka sinyal akan
diteruskan.
Propagasi Balik
Jaringan syaraf tiruan propagasi balik
adalah jaringan multilayer feedforward yang
menggunakan metode pembelajaran propagasi
balik dan supervised learning. Jaringan syaraf
tiruan propagasi balik tidak memiliki
hubungan arus balik (feedback) artinya suatu
lapisan tidak memiliki hubungan dengan
lapisan sebelumnya, namun galat yang didapat
diumpankan kembali ke lapisan sebelumnya
selama pelatihan, kemudian dilakukan
penyesuaian bobot. Model propagasi balik
dengan satu hidden neuron dapat dilihat pada
Gambar 14.

Gambar 14 Arsitektur JST propagasi balik.
Pelatihan
sebuah
jaringan
yang
menggunakan propagasi balik terdiri atas tiga
langkah, yaitu pelatihan pola input secara
feedforward, propagasi balik kesalahan, dan
penyesuaian bobot (Fausett 1994).
Sebelum melakukan ketiga langkah
pelatihan JST, bobot awal diinisialisasi yang
dapat diisi dengan bilangan acak (random)
kecil dalam interval [-0.5,0.5] atau Nguyen
Widrow yang didefinisikan
Vij2(baru)= βvij (lama)= βvij (lama)
p
2
Vj (lama)
(lama)
v ij



i =1

Gambar 13 Model JST sederhana.

Variabel vij(lama) adalah nilai acak antara -0.5
dan 0.5, sedangkan bobot pada bias bernilai
antara –β dan β.
β = 0.7 n p

5

n = jumlah unit input
p = jumlah unit tersembunyi
β = faktor pengali
Berikut ini penjelasan tiap langkah pelatihan
jaringan syaraf tiruan :
- Feedforward
Selama kondisi feedforward setiap unit
input (xm) menerima sinyal input dan
menyebarkannya
ke
setiap
unit
tersembunyi (zp). Setiap unit tersembunyi
menghitung fungsi aktivasi dan mengirim
sinyal ke setiap unit output. Unit output
kemudian menghitung fungsi aktivasi (yi)
untuk membentuk respon dalam jaringan
yang diberikan pola input. Fungsi aktivasi
yang digunakan pada aplikasi ini adalah
fungsi sigmoid biner.
- Pelatihan
Selama pelatihan, setiap unit output
membandingkan penghitungan aktivasi (yj)
dengan nilai target (tk) untuk menentukan
kesalahan pola pada unit. Berdasarkan nilai
kesalahan ini, nilai δ k dihitung, δ k

berukuran 48 x 48 piksel dengan format
bmp skala keabuan 8 bit. Data ini diperoleh
dari laboratorium komputer Universitas
Cambrigde melalui internet dengan alamat
http://homepages.Cae.wisc.edu/~ece533/im
ages/facedatabase/.
Citra wajah yang berjumlah 100 dibagi
dua menjadi 50 untuk data pelatihan dan 50
untuk data pengujian dengan memperhatikan
variasi posisi dan ekspresi. Citra wajah yang
digunakan pada penelitian ini dapat dilihat
pada Lampiran 2 dan Lampiran 3.
Proses Pengenalan Wajah
Data yang diperoleh pada penelitian ini
akan mengalami dua perlakuan, yaitu melalui
tahapan praproses menggunakan transformasi
wavelet dan tanpa transformasi. Hasil dari
kedua perlakuan tersebut kemudian diproses
menggunakan JST propagasi balik. Tahapan
proses pengenalan wajah ditunjukkan pada
Gambar 15.

digunakan
untuk
mendistribusikan
kesalahan pada unit output ke semua unit
pada lapisan sebelumnya. Kondisi ini juga
digunakan untuk memperbaiki bobot di
antara output dan lapisan tersembunyi,
δ k digunakan untuk memperbaiki bobot di
antara layer tersembunyi dan lapisan input.
Setelah semua faktor δ ditentukan, bobot
semua lapisan disesuaikan secara simultan.
- Penyesuaian bobot
Bobot (wkj) disesuaikan (dari unit
tersembunyi zk
ke unit output yj)
berdasarkan δ k dan aktivasi zk pada unit
tersembinyi yj. Penyesuaian bobot vik (dari
unit input xi ke unit tersembunyi zk)
didasarkan pada faktor δ j dan aktivasi xi
pada unit input.
Algoritma jaringan syaraf tiruan propagasi
balik secara lengkap dapat dilihat pada
Lampiran 1.

METODE PENELITIAN
Data
Data yang digunakan berjumlah 100
buah berasal dari 10 wajah dengan 10
ekspresi dan posisi berbeda. Setiap file citra

Gambar 15 Tahapan proses pengenalan wajah.
Pengenalan Wajah
Propagasi Balik

Menggunakan

JST

Citra yang digunakan pada proses
pengenalan wajah ini adalah citra wajah
tanpa mengalami proses dekomposisi dan
citra pendekatan hasil proses dekomposisi
masing-masing level. Adapun struktur JST
propagasi balik yang digunakan dapat
dilihat pada Tabel 1.

6

Tabel 1 Struktur JST propagasi balik
Karakteristik
• Arsitektur
Neuron input

Spesifikasi
1 layer hidden
Sesuai dimensi
citra
10, 20, 30, 40,
50, 60, 70, 80,
90, 100
Banyaknya kelas
target, yaitu 10
Nguyen-Widrow
Sigmoid biner
0.1, 0.01 dan
0.001
0.1

Neuron hidden

Neuron output
• Inisialisasi bobot
• Fungsi aktivasi
• Toleransi
kesalahan
• Laju pembelajaran

Banyaknya kelas target pada penelitian
ini adalah 10 (10 wajah individu berbeda).
Setiap target mewakili satu model wajah yang
direpresentasikan dengan nilai 0 dan 1.
Definisi target secara lengkap dapat dilihat
pada Tabel 2.

• Harddisk 110 GB
Perangkat Lunak



Windows XP sebagai sistem operasi
Matlab R2006b (7.3) untuk program
aplikasi

HASIL DAN PEMBAHASAN
Percobaan yang dilakukan pada penelitian
ini menerapkan dua perlakuan berbeda, yaitu
citra yang akan mengalami proses pengenalan
wajah tanpa dekomposisi sebagai percobaan 1
dan citra wajah yang akan mengalami
praproses dekomposisi sebagai percobaan 2.
Setiap percobaan mengamati nilai generalisasi
terbaik untuk menemukan kombinasi hidden
neuron, toleransi kesalahan, dan level
dekomposisi (untuk percobaan 2). Adapun
tabel generalisasi hasil kedua jenis percobaan
ini dapat dilihat pada Lampiran 4, 5, dan 6.
Percobaan 1:

Pengenalan Wajah tanpa
Proses Dekomposisi

Tabel 2 Definisi kelas target
Target
1000000000
0100000000
0010000000
0001000000
0000100000
0000010000
0000001000
0000000100
0000000010
0000000001

Parameter Percobaan

Kombinasi pertama yang dilakukan pada
percobaan 1 adalah menggunakan toleransi
kesalahan 0.1 dengan 10 buah hidden neuron.
Kombinasi ini menghasilkan generalisasi
maksimum 74% saat hidden neuron 70.
Namun mengalami penurunan hingga
mencapai nilai 52% saat hidden neuron 100.
Grafiknya dapat dilihat pada Gambar 16.
100
90
80
70
Generalisasi

Kelas
Wajah 1
Wajah 2
Wajah 3
Wajah 4
Wajah 5
Wajah 6
Wajah 7
Wajah 8
Wajah 9
Wajah 10

60
50
40
30
20

Hasil penelitian diukur dengan parameter
konvergensi dan generalisasi (Setiawan 1999,
diacu dalam Achelia 2005). Konvergensi
adalah tingkat kecepatan jaringan mempelajari
pola input, yang dinyatakan dengan satuan
waktu atau satuan epoch. Dilain pihak,
generalisasi dihitung sebagai berikut:

Generalisasi =

jumlah pola yang dikenal
x 100%
jumlah seluruh pola

10
0
10

20

30

40

50

60

70

80

90

100

Hidden Neuron

Gambar 16 Generalisasi dengan toleransi
kesalahan 0.1.
Kombinasi kedua yaitu mengubah
toleransi kesalahan menjadi 0.01(Gambar 17).
100
90
80

Lingkungan Pengembangan

Generalisasi

70
60
50
40
30

Perangkat keras dan perangkat lunak
yang digunakan pada penelitian ini adalah
sebagai berikut:
Perangkat keras



Prosesor AMD Sempron(tm) 2200+
RAM 512 MB

20
10
0
10

20

30

40

50

60

70

80

90

100

Hidden Neuron

Gambar 17 Generalisasi dengan toleransi
kesalahan 0.01.

7

Pada Gambar 17 dapat dilihat bahwa
peningkatan generalisasi mencapai 92% saat
hidden neuron 40, 70, dan 80. Ketiga hidden
neuron ini memiliki nilai epoch yang berbeda,
nilai epoch terkecil terdapat pada hidden
neuron 80. Kombinasi percobaan ini
mengalami penurunan generalisasi mulai dari
hidden neuron 90.
Kombinasi
ketiga,
nilai
toleransi
kesalahan
diturunkan
menjadi
0.001.
Penurunan
ini
tidak
memperlihatkan
peningkatan nilai generalisasi yang signifikan.
Bahkan hidden neuron 10 mengalami sedikit
penurunan, sekaligus menunjukkan bahwa
generalisasi optimum berkisar pada nilai 92%.
Grafik kombinasi ini dapat dilihat pada
Gambar 18.

Pada penelitian ini reduksi citra hasil
dekomposisi level 3 dengan ukuran citra
sebenarnya 48x48 piksel adalah 24x24 piksel
untuk dekomposisi level 1, 12x12 piksel untuk
dekomposisi level 2, dan 6x6 piksel untuk
dekomposisi level 3. Contoh citra untuk tiap
level dekomposisi dapat dilihat pada Gambar
19, 20, 21, dan Gambar 22 untuk deskripsi
citra pendekatan dan citra detil.

Gambar 19 Citra dekomposisi level 1.

100
90
80
Generalisasi

70
60
50
40
30
20
10
0
10

20

30

40

50

60

70

80

90

100

Hidden Neuron

Gambar 18 Generalisasi dengan toleransi
kesalahan 0.001.
Ketiga kombinasi pada percobaan
pertama dapat disimpulkan bahwa nilai
generalisasi paling baik diperoleh saat nilai
toleransi kesalahan 0.001. Titik keseimbangan
diperoleh dengan hidden neuron 90. Data
selengkapnya dapat dilihat pada Tabel 3.
Tabel 3 Generalisasi terbaik tiap toleransi
kesalahan
Toleransi
Generalisasi Hidden
Kesalahan
Neuron
0.1
74%
70
0.01
92%
80
0.001
94%
90

Gambar 20 Citra dekomposisi level 2.

Gambar 21 Citra dekomposisi level 3.

Percobaan 2: Pengenalan Wajah dengan
Praproses
Dekomposisi
Wavelet
Pada percobaan ini diterapkan praproses
menggunakan dekomposisi wavelet Haar.
Data yang digunakan mengalami proses
dekomposisi hingga level tiga. Citra hasil
dekomposisi yang digunakan pada proses
pengenalan wajah adalah citra pendekatan tiap
level. Oleh karena itu, jumlah citra hasil
dekomposisi yang akan mengalami proses
pengenalan wajah sebanyak 3 buah untuk satu
model wajah.

Gambar 22 Deskripsi citra dekomposisi.

8

Proses Pengenalan Wajah
Proses pengenalan wajah dengan
menggunakan citra pendekatan level 1 yang
dihasilkan oleh proses dekomposisi Haar
dikombinasikan dengan nilai toleransi
kesalahan
0.1
menghasilkan
grafik
generalisasi terhadap hidden neuron yang
ditunjukkan pada Gambar 23.

Toleransi
kesalahan
kemudian
diturunkan
kembali
menjadi
0.001
menghasilkan grafik yang dapat dilihat pada
Gambar 25. Nilai generalisasi yang
dihasilkan hampir stabil pada nilai 92% dan
mencapai generalisasi tertinggi 98% pada
hidden neuron 50.
100
90
80

90

70
Generalisasi

100

80
Generalisasi

70
60
50

60
50
40
30

40

20

30

10

20

0
10

10

20

30

40

20

30

40

50

60

70

80

90

60

70

80

90

100

100

Hidden Neuron

Gambar 23 Generalisasi Haar level 1 dengan
toleransi kesalahan 0.1.
Nilai generalisasi pada Gambar 23 secara
umum mengalami peningkatan, walaupun
diiringi dengan penurunan setiap terjadi
peningkatan. Hal tersebut terjadi pada hidden
neuron 20 yang mengalami peningkatan dari
52% menjadi 60%. Pada hidden neuron 40
generalisasi meningkat kembali menjadi 62%,
namun sebelumnya generalisasi turun menjadi
52% pada hidden neuron 30. Hal serupa
terjadi pada hidden neuron 50 yang meningkat
menjadi 64% diiringi penurunan pada hidden
neuron 60 menjadi 54%. Generalisasi kembali
meningkat menjadi 66% diikuti penurunan
menjadi 60% pada hidden neuron berikutnya.
Pola tersebut dialami pula pada hidden neuron
90, walaupun generalisasi yang dicapai sama
dengan hidden neuron 70, yaitu 66% diiringi
dengan penurunan di hidden neuron 10.
Percobaan selanjutnya diperlihatkan pada
Gambar 24 dengan toleransi kesalahan 0.01.
Percobaan ini mengalami peningkatan hingga
mencapai nilai 96% sekaligus sebagai
generalisasi tertinggi pada hidden neuron 40.
Namun,
nilai
generalisasi
mengalami
penurunan dari hidden neuron 50 sampai 70
dengan nilai 88%.

Gambar 25 Generalisasi Haar level 1 dengan
toleransi kesalahan 0.001.
Perbandingan nilai generalisasi tertinggi
yang menggunakan citra pendekatan level 1
untuk ketiga toleransi kesalahan dapat dilihat
pada Tabel 4.
Tabel 4 Generalisasi terbaik level 1
Toleransi
Kesalahan
0.1
0.01
0.001

Generalisasi
66%
96%
98%

Hidden
Neuron
70
40
50

Pengenalan wajah kemudian dilanjutkan
menggunakan citra pendekatan level 2. Grafik
hasil generalisasi yang diperoleh untuk
toleransi kesalahan 0.1 ditunjukkan pada
Gambar 26.
100
90
80
70
Generalisasi

10

60
50
40
30
20
10
0
10

20

30

40

50

60

70

80

90

100

Hidden Neuron

Gambar 26 Generalisasi Haar level 2 dengan
toleransi kesalahan 0.1.
Pada Gambar 26 tersebut dapat dilihat
bahwa generalisasi mencapai nilai tertinggi
78% pada hidden neuron 60. Pencapaian nilai
tersebut diiringi dengan penurunan nilai
generalisasi baik sebelum maupun sesudah
mencapai nilai tertinggi.

100
90
80
70
Generalisasi

50

Hidden Neuron

0

60
50
40
30
20
10
0
10

20

30

40

50

60

70

80

90

100

Hidden Neuron

Gambar 24 Generalisasi Haar level 1 dengan
toleransi kesalahan 0.01.

Selanjutnya
toleransi
kesalahan
diturunkan menjadi 0.01 ditunjukkan pada
Gambar 27 yang dapat dilihat bahwa nilai
generalisasi mengalami peningkatan yang
signifikan, yaitu pada hidden neuron 10

9

dengan nilai 84% meningkat hingga mencapai
94% pada hidden neuron 30. Seperti
percobaan sebelumnya yang menggunakan
toleransi kesalahan 0.1, setelah mencapai nilai
tertinggi generalisasi kembali turun. Pada
percobaan ini generalisasi turun menjadi 90%.

dan penurunan nilai generalisasi yang dicapai
tidak jauh berbeda dengan nilai sebelum
maupun setelahnya. Nilai generalisasi terbaik
pada kombinasi ini adalah 60% pada hidden
neuron 40.
100
90
80

100

70
Generalisasi

90
80
Generalisasi

70
60

60
50
40
30

50

20

40

10

30

0
10

20

20

30

40

50

60

70

80

90

100

Hidden Neuron

10
0
20

30

40

50

60

70

80

90

100

HIdden Neuron

Gambar 27 Generalisasi Haar level 2 dengan
toleransi kesalahan 0.01.
Kombinasi
terakhir
untuk
citra
pendekatan level 2 adalah menurunkan
kembali nilai toleransi kesalahan menjadi
0.001 yang dapat dilihat pada Gambar 28.
Nilai generalisasi yang diperoleh pada
percobaan ini mencapai nilai 96% sekaligus
sebagai generalisasi terbaik, kemudian turun
menjadi 92% dan kembali naik menjadi 96%.
Hal tersebut terus berulang sampai hidden
neuron 100 yang diakhiri dengan penurunan
nilai generalisasi.
100

Gambar 29 Generalisasi Haar level 3 dengan
toleransi kesalahan 0.1.
Grafik generalisasi selanjutnya diperoleh
dengan toleransi kesalahan 0.01 yang
ditunjukkan pada Gambar 30.
100
90
80
70
Generalisasi

10

60
50
40
30
20
10
0
10

20

30

40

50

60

70

80

90

100

Hidden Neuron

Gambar 30 Generalisasi Haar level 3 dengan
toleransi kesalahan 0.01.

90
80
Generalisasi

70
60
50
40
30
20
10
0
10

20

30

40

50

60

70

80

90

100

Hidden Neuron

Gambar 28 Generalisasi Haar level 2 dengan
toleransi kesalahan 0.001.
Hasil generalisasi terbaik pengenalan
wajah yang menggunakan input citra
pendekatan level 2 dapat dilihat pada Tabel 5.
Tabel 5 Generalisasi terbaik level 2
Toleransi
Kesalahan
0.1
0.01
0.001

Generalisasi
78%
94%
94%

Hidden
Neuron
60
30, 70
30, 70, 90

Kombinasi tiga terakhir percobaan 2
dimulai seperti yang dilakukan sebelumnya,
yaitu toleransi kesalahan 0.1 dengan
menggunakan
citra
pendekatan
hasil
dekomposisi level 3 yang dapat dilihat pada
grafik Gambar 29. Pada kombinasi ini nilai
generalisasi hampir stabil, karena peningkatan

Pada percobaan ini nilai generalisasi
mencapai nilai terbaik 98% pada hidden
neuron 50 dan 60. Seperti kombinasi
percobaan sebelumnya pencapaian nilai
generalisasi tertinggi selalu diiringi dengan
penurunan generalisasi, kali ini generalisasi
turun empat poin dari 98% menjadi 94%.
Percobaan
dua
diakhiri
dengan
menurunkan nilai toleransi kesalahan menjadi
0.001. Nilai generalisasi mulai stabil dengan
nilai 98% yang terjadi pada hidden neuron 70
sampai dengan hidden neuron 100. Nilai
generalisasi terbaik yang dicapai adalah
sebesar 100% terjadi pada hidden neuron 30,
40, dan 60. Grafiknya ditunjukkan pada
Gambar 31.
Seperti kombinasi percobaan sebelumnya,
hal serupa pun terjadi pada kombinasi
percobaan ini. Setelah mencapai nilai
generalisasi terbaik pasti nilai generalisasi
mengalami penurunan, walaupun kadangkadang tidak langsung turun pada hidden
neuron berikutnya. Pada akhir percobaan dua
ini nilai generalisasi turun enam poin, yaitu
dari 100% menjadi 94%.

10

100

100%

90

Generaliasi

80%

80
Generaliasi

70
60
50

60%
40%
20%

40

0%
30

T

HL1

HL2

HL3

20

Hidden Neuron

10
0
10

20

30

40

50

60

70

80

90

Toleransi Kesalahan 0.1

100

Toleransi Kesalahan 0.01

Toleransi Kesalahan 0.001

Hidden Neuron

Gambar 31 Generalisasi Haar level 3 dengan
toleransi kesalahan 0.001.

Gambar 32 Perbandingan generalisasi terbaik
dari dua jenis percobaan.

Data
generalisasi
terbaik
hasil
pengenalan wajah dengan menggunakan
input citra pendekatan hasil dekomposisi
level 3 dapat dilihat pada Tabel 6.

Waktu komputasi yang diperlukan saat
proses pengenalan wajah yang melalui
praproses dekomposisi pun terbukti lebih
cepat dibandingkan dengan pengenalan wajah
tanpa dekomposisi citra. Data selengkapnya
dapat dilihat pada Tabel 8.

Tabel 6 Generalisasi terbaik level 3.
Toleransi
Kesalahan
0.1
0.01
0.001

Generalisasi
60%
98%
100%

Hidden
Neuron
40
50, 60
30, 40, 60

Tabel 8 Perbandingan waktu
komputasi
pengenalan wajah (detik)

Perbandingan Kedua Jenis Percobaan
Dari dua jenis percobaan pengenalan
wajah ini secara garis besar menyatakan
bahwa generalisasi hasil pengenalan wajah
dengan praposes dekomposisi Wavelet lebih
baik dibandingkan dengan pengenalan wajah
tanpa dekomposisi. Semakin kecil toleransi
kesalahan, dan semakin tinggi level
dekomposisi maka nilai generalisasi yang
dicapai akan semakin tinggi. Walaupun ada
pengecualian pada toleransi kesalahan 10-1
nilai generalisasi terbaik berasal dari
dekomposisi
level
2.
Perbandingan
generalisasi terbaik percobaan 1 dan 2 dapat
dilihat pada Tabel 7.
Tabel 7 Generalisasi terbaik percobaan 1 dan
percobaan 2
Toleransi
Kesalahan

Percobaan 1 Percobaan 2 (tiap level)
1

2

3

0.1

74%

66%

78%

60%

0.01

92%

96%

94%

98%

0.001

94%

98%

94%

100%

Pada Gambar 32 dapat dilihat bahwa
perbandingan generalisasi terbaik dua jenis
percobaan yang terdiri atas pengenalan wajah
tanpa dekomposisi (T), dan pengenalan wajah
dengan pemrosesan awal dekomposisi Haar
level 1 (HL1), dekomposisi Haar level 2
(HL2), dan dekomposisi Haar level 3 (HL3)
dalam bentuk diagram batang.

Toleransi
Kesalahan
0.1

T

HL1

HL 2

HL 3

4.1764

3.15805

3.01889

2.9341

0.01

5.09054

3.37057

3.02463

2.91827

0.001

6.47764

3.81836

2.9637

3.00416

Berdasarkan data pada Tabel 8 dapat
disimpulkan bahwa semakin tinggi level
dekomposisi, maka waktu yang diperlukan
untuk proses pengenalan wajah semakin
cepat. Namun, jika dilihat dari penurunan
toleransi kesalahan, waktu yang diperlukan
semakin lama. Hal ini berbanding lurus
dengan peningkatan nilai generalisasi.

KESIMPULAN DAN SARAN
Kesimpulan
Berdasarkan penelitian yang telah
dilakukan, maka dapat disimpulkan bahwa:
1

Pengenalan wajah dengan pemrosesan
awal
transformasi
wavelet
dapat
meningkatkan nilai generalisasi, bahkan
dapat mencapai nilai 100% pada
dekomposisi level 3 dengan toleransi
kesalahan 10-3 pada hidden neuron 30, 40,
dan 60. Secara umum rata-rata
generalisasi yang dicapai saat toleransi
kesalahan 10-3 berkisar pada nilai 98%.

2

Setiap nilai generalisasi mencapai nilai
terbaik selalu diiringi dengan penurunan
nilai generalisasi pada hidden neuron
selanjutnya.
Walaupun
penurunan
tersebut tidak selalu berselangan satu
hidden neuron.

11

3

Waktu komputasi saat proses pengenalan
wajah
yang
mengalami
proses
dekomposisi Wavelet pun lebih cepat
dibandingkan dengan proses pengenalan
wajah tanpa proses dekomposisi. Waktu
komputasi akan semakin kecil seiring
dengan penambahan level dekomposisi.

4

Dilihat dari diagram batang pada Gambar
31, nilai generalisasi akan semakin tinggi
seiring dengan penambahan level
dekomposisi dan penurunan nilai
toleransi kesalahan.

5

Dilihat dari jumlah hidden neuron saat
nilai generalisasi terbaik pada percobaan
1 dan percobaan 2, seringnya dicapai saat
berada pada jumlah 40, 70 ,dan 90.

6

Proses dekomposisi wavelet Haar
penghitungannya sederhana, sehingga
mudah
dimengerti,
karena
kesederhanaannya itu juga waktu
komputasi
menjadi
lebih
cepat.
Kesederhanaan dan kemudahan dalam
proses penghitungan itulah yang menjadi
keunggulan dari induk wavelet Haar.

Saran
Penelitian ini dapat dikembangkan
menjadi penelitian baru dengan saran sebagai
berikut:






Menggunakan gabungan citra pendekatan
dan citra detil sebagai input dalam proses
pengenalan wajah, sehingga masukan
pada JST propagasi balik lebih banyak
informasi dibandingkan dengan hanya
menggunakan citra pendekatan sebagai
input. Kemudian dibandingkan akurasi
yang diperoleh antara input citra
pendekatan dengan input gabungan citra
pendekatan dan citra detil.
Membandingkan nilai generalisasi yang
didapat dengan induk wavelet lainnya,
misalnya Haar dengan Daubechies,
karena Daubechies merupakan induk
wavelet yang diperoleh dari hasil
pengembangan Haar.
Menggunakan citra wajah yang ukuran
baris dan kolomnya berbeda, misalnya
citra wajah berukuran 112x92 piksel.

DAFTAR PUSTAKA
Achelia, E. 2005. Pengenalan Wajah dalam
Berbagai Sudut Pandang Terkelompok
Menggunakan Jaringan Syaraf Tiruan
Propagasi
balik
[skripsi].
Bogor:
Depertemen Ilmu Komputer, FMIPA, IPB.

Burrus, C. S. & Guo H. 1998. Introduction to
Wavelets and Wavelet Transforms, A
Primer. Upper Saddle River, NJ(USA):
Prentice-Hall.
Fausett, Laurene. 1994. Fundamentals of
Neural Networks. New Jersey : PrenticeHall.
Gonzales, R. C. & R.E. Woods. 2002. Digital
Image Processing. 2nd Edition. New
Jersey: Prentice-Hall.
Lim, Resmana et al. 2000. Pengenalan Citra
Wajah dengan Pemrosesan Awal
Transformasi
Wavelet.
Proceeding
Digital Signal Prosessing, Teknologi dan
Aplikasinya (DSPTA). Surabaya: Gedung
Pasca Sarjana ITS.
Minarni. 2004. Klasifikasi Sidik Jari dengan
Pemrosesan Awal Transformasi Wavelet.
Transmisi 8(2):37-41.
Puspaningrum. 2006. Pengantar Jaringan
Saraf Tiruan. Yogyakarta: ANDI.
Setiawan, W. 1999. Pengenalan Wajah
Menggunakan Jaringan Neural Buatan
Berbasis Eigenfaces [tesis]. Depok:
Program Studi Ilmu Komputer, Fakultas
Pascasarjana Universitas Indonesia.
Siang, J. J. 2005. Jaringan Syaraf Tiruan dan
Pemrogramannya Menggunakan Matlab.
Yogyakarta: ANDI.
Stollnitz, Eric J et al. 1995a. Wavelets for
Computer Graphics: A Primer Part 1.
University
of
Washington.
http://grail.cs.washington.edu/projects/
wavelets/article/wavelet1.pdf
[ 1 Februari 2007]
Stollnitz, Eric J et al. 1995b. Wavelets for
Computer Graphics: A Primer Part 2.
University
of
Washington.
http://grail.cs.washington.edu/projects/
wavelets/article/wavelet1.pdf
[ 1 Februari 2007]
Valens, Clemens. 2004. A Really Friendly
Guide to Wavelets. http://perso.orange.
fr/polyvalens/clemens/download/arfgtw_
26022004.pdf [1 Februari 2007]

LAMPIRAN

13

Lampiran 1 Algoritma jaringan syaraf tiruan propagasi balik
Langkah 0 Inisialisasi bobot
Langkah 1 Selama kondisi berhenti bernilai salah, lakukan langkah 2-9.
Langkah 2 Untuk setiap pasangan pelatihan, lakukan langkah 3-8.
Feedforward:
Langkah 3

Langkah 4

Langkah 5

Setiap unit input (Xi, i =1,..., m) menerima sinyal input xi
dan menyebarkan sinyal tersebut ke semua unit lapisan atas
(unit tersembunyi).
Setiap unit tersembunyi (Zk, k = 1,...,p) menjumlahkan
bobot sinyal input
z_in k = v ok + ∑ x i v ik
dan mengaplikasikan fungsi aktivasi untuk menghitung
sinyal output
z k = f ( z _ in k )
kemudian mengirim sinyal tersebut ke semua unit pada
lapisan atas (unit output).
Setiap unit output (Yj, j = 1,..., n) menjumlahkan bobot
sinyal input

y _ in j = woj + ∑ z k wkj

dan mengaplikasikan fungsi aktivasi untuk menghitung
sinyal output
y j = f y _ in j

(

)

Propagasi balik:
Langkah 6

Setiap unit output (Yj, j = 1,..., n) menerima sebuah pola
yang bersesuaian dengan pola input pelatihan, kemudian
menghitung informasi kesalahan
δ j = t j − y j f y _ in j

(

) (

)

kemudian menghitung koreksi bobot (digunakan untuk
memperbaiki bobot wkj)

∆ w kj = αδ j z k

Dan akhirnya menghitung koreksi bias (digunakan untuk
memperbaiki w0j)

∆ w 0 j = αδ

Langkah 7

j

Kemu