BAB III METODOLOGI
3.1 Metode Pengumpulan Data
Data yang digunakan pada penelitian ini merupakan data diskrit berbasis eigenfaces dari citra wajah . Untuk hal tersebut maka terlebih dahulu dilakukan pengolahan
terhadap citra wajah agar memenuhi karekteristik yang diinginkan untuk penelitian ini, sehingga untuk selanjutnya dapat diproyeksikan menggunakan eigenfaces.
3.1.1 Pengambilan dan pengolahan citra wajah
Pengambilan citra wajah dilakukan dengan kamera digital terhadap lima orang dalam enam konfigurasi dasar wajah manusia secara psikologi, yaitu : netral, tertawa,
senyum, sedih, marah, dan kaget Setawan, 1999. Citra wajah yang dihasilkan dari kamera digital tersebut adalah dalam format JPG, mode RGB, dan beresolusi 640 x
640. Citra Wajah tersebut dapat dilihat pada Lampiran A. Karekteristik citra wajah yang dihasilkan tersebut tidak memenuhi persyaratan
untuk penelitian ini, sehingga dilakukan perubahan terhadap karekteristik citra wajah tersebut. Dengan menggunakan perangkat lunak Adobe Photoshop karekteristik citra
wajah tersebut diubah menjadi format PCX, mode gray level 8 bit, dan beresolusi 64 x 64 yang dapat dilihat pada Lampiran B. Bagian dari citra wajah yang menjadi sasaran
untuk dikenali adalah bagian mata, hidung dan mulut. Untuk mendapatkan bagian tersebut maka citra wajah tersebut dikropping dengan menggunakan perangkat lunak
Adobe Photoshop, kropping dilakukan dengan sebuah windows berukuran 33 x 33 pada bagian mata, hidung, dan mulut. Hasil kropping tersebut dapat dilihat pada
Lampiran C.
Universitas Sumatera Utara
Penelitian ini menggunakan data dalam bentuk pola-pola diskrit dari citra wajah, sehingga setiap citra wajah harus diubah representasinya dari keadaan kontinu
ke dalam bentuk pola-pola diskrit melalui informasi gray level. Perubahan representasi citra wajah tersebut dapat dilakukan dengan perangkat lunak bacaimage.
Perangkat lunak bacaimage yang dibuat oleh Drs. Suyanto M.Kom dan kawan-kawan, merupakan perangkat lunak yang mampu merubah representasi suatu citra wajah yang
berformat PCX dengan mode gray level 8 bit dari keadaan kontinu ke keadaan diskrit. Hasil perubahan terhadap setiap citra wajah yang digunakan pada penelitian ini adalah
sebuah matriks berukuran 33 x 33 yang berisi nilai-nilai diskrit dari setiap citra wajah. Untuk memudahkan dalam penggunaan data-data tersebut, maka dilakukanlah
pelabelan terhadap data diskrit dari setiap citra wajah tersebut dengan cara sebagai berikut :
Tabel 3. 1 Pelabelan Data Diskrit Dari Setiap Citra Wajah
EKSPRESI WAJAH OBJEK
NETRAL TERTAWA SENYUM SEDIH MARAH
KAGET Orang-1
Foto-1 Foto-2
Foto-3 Foto-4
Foto-5 Foto-6
Orang-2 Foto-7
Foto-8 Foto-9
Foto-10 Foto-11
Foto-12 Orang-3
Foto-13 Foto-14
Foto-15 Foto-16
Foto-17 Foto-18
Orang-4 Foto-19
Foto-20 Foto-21
Foto-22 Foto-23
Foto-24 Orang-5
Foto-25 Foto-26
Foto-27 Foto-28
Foto-29 Foto-30
3.1.2 Proyeksi data diskrit citra wajah dengan eigenfaces
Proyeksi data diskrit citra wajah dengan eigenfaces merupakan penerapan metode Principal Component Analysis PCA pada data yang berbentuk citra wajah. Hal
tersebut dapat dilakukan karena suatu citra wajah dapat dipandang sebagai suatu vektor Setawan, 1999. Jika citra tersebut memiliki lebar dan tinggi masing-masing
adalah w dan h piksel, jumlah komponen vektor tersebut adalah w x h piksel. Berdasarkan tingkat keabuan, setiap piksel dikodekan dengan nilai 0 – 255 Setawan,
1999. Proyeksi dengan eigenfaces dilakukan karena“Space image yang utuh
bukanlah merupakan space yang optimal untuk mendeskripsikan image wajah. Untuk image dengan lebar w, dan tinggi h, dimensi space wajah adalah w x h. Dalam hal ini
Universitas Sumatera Utara
tentunya dimensi tersebut tidak optimal, maka perlu dilakukan reduksi, namun perlu dipertimbangkan pula bahwa setiap piksel saling bergantung terhadap piksel
tetangganya. Dengan demikian perlu suatu metode untuk mendapatkan dimensi yang optimal. Metode eigenfaces dapat digunakan untuk mentransformasi dan reduksi
dimensi tanpa kehilangan ciri yang ada.”Setawan, 1999, hal: 7. Algoritma untuk memproyeksikan setiap data diskrit citra wajah yang
berukuran N x N ke dalam face space dengan dimensi yang lebih kecil adalah sebagai berikut
Step 1: for i= 1 to banyak data Step 1a: representasikan setiap matriks citra yang berukuran
N x N ke dalam vektor wajah Γ
i
yang berukuran N
2
x 1 Step 2: end for
Step 3: hitung vektor citra rata- rata Ψ
Step 4: hitung mean subtracted images Φ
i
Step 5: Bentuk matriks covariance C Step 6: Hitung eigenvalue-eigenvalue dari matriks covariance
Step 7: Tentukan eigenvektor-eigenvektor terbaik yang bersesuaian dari eigenvalue-eigenvalue terbesar. Eigenvektor-eigenvektor
tersebut merupakan eigenfaces Step 8: Bentuk face space U
Step 9: Proyeksikan setiap vektor image kedalam face space
i
Step10: Selesai
Proses transformasi dengan menggunakan metode eigenfaces berdasarkan algoritma tersebut akan menghasilkan 30 vektor hasil transformasi yang berdimensi
30 x 1.
3.2 Metode Normalisasi Data
Data hasil proyeksi ke dalam face space yang telah dikumpulkan sebelumnya harus dinormalkan terlebih dahulu sebelum selanjutnya akan menjadi data masukan pada
penelitian ini. Data- data tersebut harus dinormalkan karena data-data tersebut bukanlah data yang sesuai untuk menjadi nilai masukan pada jaringan saraf propagasi
balik. 29
Universitas Sumatera Utara
Data yang sesuai untuk menjadi nilai masukan pada jaringan saraf propagasi balik adalah data yang terletak pada range -1 dan 1 atau pada range 0 dan 1,sehingga
kuadrat dari data masukan berada pada range 0 dan 1Halim et al, 2000. Hal ini dilakukan agar nilai keluaran yang dihasilkan dapat terletak pada range 0 dan 1.
Proses normalisasi data pada penelitian ini akan menggunakan rumusan matematis sebagai berikut Gazali, 2003 :
, ,
min min
2 1
, ,
1, 2, 3, , 30
i j i j
maks
Normal i j
3. 1
dimana
, i j
Normal = elemen dari matriks normal
, i j
= elemen dari matriks hasil proyeksi ke dalam
face space
maks
= nilai maksimum dari matriks hasil proyeksi ke dalam
face space
min
= nilai minimum dari matriks hasil proyeksi ke dalam face space
Setiap kolom pada matriks normal tersebut adalah data hasil normalisasi dari
setiap citra wajah yang akan digunakan sebagai data masukan pada penelitian ini. Untuk memudahkan dalam penggunaan data-data tersebut, maka dilakukanlah
pelabelan terhadap data normal dari setiap citra wajah tersebut dengan cara sebagai berikut :
Tabel 3. 2 Pelabelan Data Normal Dari Setiap Citra Wajah
EKSPRESI WAJAH OBJEK
NETRAL TERTAWA
SENYUM SEDIH
MARAH KAGET
Orang-1 Normal-1
Normal-2 Normal-3
Normal-4 Normal-5
Normal-6 Orang-2
Normal -7 Normal -8
Normal -9 Normal -10
Normal -11 Normal -12
Orang-3 Normal -13
Normal -14 Normal -15
Normal -16 Normal -17
Normal -18 Orang-4
Normal -19 Normal -20
Normal -21 Normal -22
Normal -23 Normal -24
Orang-5 Normal -25
Normal -26 Normal -27
Normal -28 Normal -29
Normal -30
Universitas Sumatera Utara
3.3 Metode Penentuan arsitektur jaringan
Jaringan saraf propagasi balik yang digunakan pada penelitian ini merupakan jaringan saraf propagasi balik dengan 1 lapisan tersembunyi hidden layer. Dengan demikian
penelitian ini akan menggunakan 3 lapisan yaitu lapisan masukan input layer , lapisan tersembunyi hidden layer dan lapisan keluaran output layer. Setiap lapisan
akan memiliki neuron-neuron yang jumlahnya tergantung dari permasalahan yang akan diselesaikan.
Data masukan pada penelitian ini adalah data hasil proyeksi ke dalam face space yang telah mengalami proses normalisasi dengan dimensi 30 x 1. Hal ini
menyebabkan lapisan masukan pada penelitian ini akan memiliki neuron sebanyak 30 buah neuron.
Untuk menentukan jumlah neuron pada lapisan keluaran, maka yang menjadi acuan adalah bagaimana cara mendefinisikan target keluaran dari suatu penelitian.
Target keluaran dapat didefinisikan sesuai kebutuhan, dengan ketetapan yang harus dipegang adalah pola keluaran harus unik Setawan, 1999. Dalam penelitian ini
terdapat 5 orang yang digunakan sebagai objek, maka harus terdapat 5 pola target keluaran yang unik. Dengan demikian maka pendefinisian pola target keluaran pada
penelitian ini adalah sebagai berikut :
Tabel 3. 3 Pendefinisian Target Keluaran
ORANG KE- DIDEFINISIKAN
1 0 0 0
2 0 0 1
3 0 1 0
4 0 1 1
5 1 0 0
Dari pendefinisian diatas maka dapat disimpulkan bahwa lapisan keluaran pada penelitian ini akan memiliki neuron sebanyak 3 buah neuron.
Universitas Sumatera Utara
Untuk menentukan jumlah neuron pada lapisan tersembunyi banyak cara yang dapat digunakan. Salah satu cara yang digunakan pada penelitian ini adalah Saman,
2006 L
N M
3. 2
dimana L = jumlah neuron pada lapisan tersembunyi
N = jumlah neuron pada lapisan masukan M = jumlah neuron pada lapisan keluaran
Dengan demikian maka pada penelitian ini jumlah neuron pada lapisan tersembunyi ada sebanyak 9 buah neuron. Sehingga arsitektur jaringan saraf yang digunakan pada
penelitian ini
dapat digambarkan
sebagai berikut:
Gambar 3. 1 Arsitektur jaringan saraf pada penelitian
Bias
i 1
1
j
9 Bias
1
2
3 .
. .
. .
. .
. .
. .
. .
. .
. .
.
Lapisan Masukan Lapisan Tersembunyi
Lapisan Keluaran x
p1
x
pi
x
p30
M A
S U
K A
N o
p1
o
p2
o
p3
K E
L U
A R
A N
Universitas Sumatera Utara
3.4 Metode Inisialisasi Bobot-Bobot Awal
Bobot-bobot awal pada penelitian ini ditentukan menggunakan metode Nguyen- Widrow. Metode tersebut dikembangkan oleh Nguyen dan Widrow pada tahun 1990.
Metode tersebut menggunakan faktor skala µ yang didefinisikan sebagai berikut Fausett, 1994:
µ = 0.7 L
1N
3.3 dimana
N = jumlah neuron pada lapisan masukan L = jumlah neuron pada lapisan tersembunyi
Metode ini hanya digunakan untuk menginisialisasi bobot awal dari neuron-neuron lapisan masukan ke neuron-neuron lapisan tersembunyi, sedangkan bobot awal dari
neuron-neuron lapisan tersembunyi ke neuron-neuron lapisan keluaran diinisialisasi dengan inisialisasi acakpuspitaningrum, 2006. Sehingga algoritma untuk melakukan
inisialisasi bobot awal dengan metode Nguyen-Widrow adalah sebagai berikut:
step 1 : Inisialisasi setiap bobot dari neuron-neuron lapisan masukan ke neuron-neuron lapisan tersembunyi
h ji
w
dalam interval [-0.5 , 0.5 ]
step 2 : Hitung faktor skala µ step 3 : Hitung
2 2
2 2
1 2
3 h
h h
h h
j j
j j
jN
w w
w w
w
step 4 : Hitung
h ji
h ji
h j
w lama
w baru
w
step 5 : Bobot untuk neuron bias diinisialisasi antara – µ dan µ
Universitas Sumatera Utara
3.5 Metode Pelatihan
Pada saat pelatihan jaringan saraf dapat dipandang sebagai suatu sistem yang belajarPuspitaningrum, 2006. Belajar pada jaringan saraf propagasi balik adalah
belajar yang terawasi, dimana terdapat pasangan masukan dan target yang harus dipenuhi sehingga dibutuhkan data masukan dan target untuk suatu pelatihan.
Untuk hal tersebut maka pelatihan pada penelitian ini menggunakan data diskrit citra wajah dalam ekspresi netral, tertawa, senyum, dan marah yang telah
mengalami proses normalisasi sebagai data masukan. Sedangkan data keluaran yang telah didefinisikan pada bagian 3. 3 digunakan sebagai data target. Data tersebut
disusun berurutan dari orang pertama sampai orang ke lima dalam ekspresi netral, kemudian kembali lagi dari orang pertama sampai orang ke lima dalam ekspresi
tertawa, dan seterusnya sampai orang ke lima dalam ekspresi marah. Pasangan data masukan dan target pelatihan pada penelitian ini adalah sebagai berikut
Tabel 3. 4 Susunan Data Pelatihan
DATA MASUKAN DATA TARGET
Normal-1 0 0 0
Normal-7 0 0 1
Normal-13 0 1 0
Normal-19 0 1 1
Normal-25 1 0 0
Normal-2 0 0 0
Normal-8 0 0 1
Normal-14 0 1 0
Normal-20 0 1 1
Normal-26 1 0 0
Normal-3 0 0 0
Normal-9 0 0 1
Normal-15 0 1 0
Normal-21 0 1 1
Normal-27 1 0 0
Normal-5 0 0 0
Normal-11 0 0 1
Normal-17 0 1 0
Normal-23 0 1 1
Normal-29 1 0 0
Universitas Sumatera Utara
Pada penelitian ini, pelatihan dilakukan melalui 2 tahap yaitu dengan jaringan saraf propagasi balik 2 faktor dan dengan jaringan saraf propagasi balik 3 faktor.
Kedua jenis pelatihan tersebut dilakukan dengan menggunakan data pelatihan yang sama.
3.5.1 Metode pelatihan dengan jaringan saraf propagasi balik 2 faktor
Pelatihan dengan jaringan saraf propagasi balik yang menggunakan 2 faktor, yaitu laju pembelajaran
α dan momentum β dilakukan berdasarkan algoritma berikut ini:
Step 1: Inisialisasi bobot-bobot awal dari setiap lapisan Step 2: Set epoch maksimum = 1000,
Kesalahan pelatihan maksimum = 0.01, epoch = 0 Step 3: Epoch = epoch + 1
Step 4: For p =1 to banyak data pelatihan do Step4a:
setiap neuron i pada lapisan masukan meneruskan nilai- nilai masukan dari setiap pola masukan x
pi
Step4b: Hitung net input dari setiap neuron j pada lapisan
tersembunyi
h pj
net
1 N
h h
h pj
ji pi
j i
net w x
Step4c: Hitung nilai keluaran dari setiap neuron j pada lapisan
tersembunyi i
pj
i
pj =
1 1
h pj
net
e
Step4d: Hitung net input dari setiap neuron k pada lapisan
keluaran
o pk
net
1 L
o o
o pk
kj pj
k j
net w i
Step4f: Hitung nilai keluaran aktual dari setiap neuron k pada
lapisan keluaran o
pk
o
pk =
1 1
o pk
net
e
Step4g: Hitung kesalahan dari setiap neuron k pada lapisan keluaran
o pk
o pk
=
1
pk pk
pk pk
y o
o o
Universitas Sumatera Utara
Step4h: Hitung kesalahan dari setiap neuron j pada lapisan
tersembunyi
o pj
h pj
=
1
pj pj
i i
1 M
o o
pk kj
k
w
Step4i: Hitung perubahan bobot-bobot lapisan tersembunyi
1
h h
h ji
pj pi
ji
w p
x w
p
Step4j: Hitung perubahan bobot-bobot lapisan keluaran
1
o o
o kj
pk pj
kj
w p
i w
p
Step4k: Hitung bobot-bobot lapisan tersembunyi yang baru
h ji
w
baru =
h ji
w
lama +
h ji
w p
Step4l: Hitung bobot-bobot lapisan keluaran yang baru
o kj
w
baru =
o kj
w
lama +
o kj
w p
Step5: End for Step6: Hitung kesalahan pelatihan
Step7: Kerjakan step 3 sampai step 6 jika kesalahan pelatihan kesalahan pelatihan maksimum atau epoch pelatihan epoch
pelatihan maksimum Step8: Selesai
Pelatihan dengan jaringan saraf propagasi balik yang menggunakan 2 faktor dilakukan dalam 2 kelompok pelatihan, setiap kelompok terdiri atas 9 percobaan yang
berbeda berdasarkan nilai laju pembelajaran α dan momentum β yang digunakan.
Setiap percobaan pada kelompok I menggunakan nilai yang sama dan meningkat dalam interval [0.1 , 0.9] untuk laju pembelajaran
α dan momentum β. Sedangkan kelompok II menggunakan nilai laju pembelajaran
α yang meningkat dari 0.1 sampai 0.9 sedangkan nilai momentum
β yang digunakan akan menurun dari 0.9 sampai 0.1.
3.5.2 Metode pelatihan dengan jaringan saraf propagasi balik 3 faktor
Pelatihan dengan jaringan saraf propagasi balik dengan 3 faktor, yaitu laju pembelajaran
α, momentum β dan faktor proporsional γ dilakukan berdasarkan algoritma berikut ini:
Step 1: Inisialisasi bobot-bobot awal dari setiap lapisan Step 2: Set epoch maksimum = 1000,
Kesalahan pelatihan maksimum = 0.01, epoch = 0 Step 3: Epoch = epoch + 1
Step 4: For p =1 to banyak data pelatihan do Step4a:
setiap neuron i pada lapisan masukan meneruskan nilai- nilai masukan dari setiap pola masukan x
pi
Universitas Sumatera Utara
Step4b: Hitung net input dari setiap neuron j pada lapisan
tersembunyi
h pj
net
1 N
h h
h pj
ji pi
j i
net w x
Step4c: Hitung nilai keluaran dari setiap neuron j pada lapisan
tersembunyi i
pj
i
pj =
1 1
h pj
net
e
Step4d: Hitung net input dari setiap neuron k pada lapisan
keluaran
o pk
net
1 L
o o
o pk
kj pj
k j
net w i
Step4f: Hitung nilai keluaran aktual dari setiap neuron k pada
lapisan keluaran o
pk
o
pk =
1 1
o pk
net
e
Step4g: Hitung kesalahan dari setiap neuron k pada lapisan keluaran
o pk
o pk
=
1
pk pk
pk pk
y o
o o
Step4h: Hitung kesalahan dari setiap neuron j pada lapisan
tersembunyi
o pj
h pj
=
1
pj pj
i i
1 M
o o
pk kj
k
w
Step4i: Hitung
1 M
k pk
pk k
e y
o
Step4j: Hitung perubahan bobot-bobot lapisan tersembunyi
1
h h
h ji
pj pi
ji
w p
x w
p
+
e
k
Step4k: Hitung perubahan bobot-bobot lapisan keluaran
1
o o
o kj
pk pj
kj
w p
i w
p
+
e
k
Step4l: Hitung bobot-bobot lapisan tersembunyi yang baru
h ji
w
baru =
h ji
w
lama +
h ji
w p
Step4m: Hitung bobot-bobot lapisan keluaran yang baru
o kj
w
baru =
o kj
w
lama +
o kj
w p
Step5: End for Step6: Hitung kesalahan pelatihan
Step7: Kerjakan step 3 sampai step 6 jika kesalahan pelatihan kesalahan pelatihan maksimum atau epoch pelatihan epoch
pelatihan maksimum Step8: Selesai
Universitas Sumatera Utara
Untuk mengamati pengaruh faktor proporsional pada penelitian ini, maka pelatihan dilakukan dengan mengimplementasikan faktor proporsional tersebut ke-
dalam setiap kelompok pelatihan jaringan saraf propagasi balik 2 faktor dalam 3 tahap. Implementasi tahap 1 dilakukan dengan nilai faktor proporsional
γ pada interval [0.1 , 0.9], tahap 2 pada interval [0.01 , 0.09] dan tahap 3 pada interval [0.001
, 0.009]. Setiap tahap implementasi dilakukan secara menaik dan menurun.
3.6 Metode Pengujian
Hasil pelatihan pada jaringan saraf adalah bobot-bobot yang telah mengalami modifikasi selama pelatihan berlangsung. Hermawan 2006, hal:102 menyatakan
bahwa tujuan akhir dari seluruh proses dengan menggunakan pendekatan jaringan saraf tiruan adalah menguji seberapa besar pola atau data dikenali oleh jaringan.
Dengan demikian setelah pelatihan berakhir maka selanjutnya hasil pelatihan harus diuji untuk mengetahui tingkat keberhasilan pelatihan dalam waktu pelatihan yang
telah ditetapkan. Tingkat keberhasilan tersebut diukur dari kemampuan memorisasi dan
generalisasi jaringan. Hermawan 2006, hal:102 menyatakan bahwa pengujian biasanya dilakukan secara bertahap dengan melakukan pengujian terhadap data yang
dilatihkan dan pengujian terhadap data baru.Data yang dilatihkan yang digunakan untuk proses pengujian adalah data pelatihan pada tabel 3. 4 sedangkan data baru yang
digunakan pada proses pengujian disebut data pengujian. Pengujian dengan menggunakan data pelatihan digunakan untuk mengetahui kemampuan memorisasi
jaringan, sedangkan pengujian dengan menggunakan data pengujian digunakan untuk mengetahui kemampuan generalisasi jaringan. Data pengujian pada penelitian ini
adalah sebagai berikut : 38
Universitas Sumatera Utara
Tabel 3. 7 Data Pengujian
DATA MASUKAN DATA TARGET
Normal-4 0 0 0
Normal-10 0 0 1
Normal-16 0 1 0
Normal-22 0 1 1
Normal-28 1 0 0
Normal-6 0 0 0
Normal-12 0 0 1
Normal-18 0 1 0
Normal-24 0 1 1
Normal-30 1 0 0
Proses pengujian pada penelitian ini menggunakan algoritma berikut ini
Step 1: Inisialisasi bobot-bobot dari setiap lapisan dengan bobot- bobot hasil pelatihan
Step 2: For p =1 to banyak data yang diujikan do Step3a:
setiap neuron i pada lapisan masukan meneruskan nilai- nilai masukan dari setiap pola masukan x
pi
Step3b: Hitung net input dari setiap neuron j pada lapisan
tersembunyi
h pj
net
1 N
h h
h pj
ji pi
j i
net w x
Step3c: Hitung nilai keluaran dari setiap neuron j pada lapisan
tersembunyi i
pj
i
pj =
1 1
h pj
net
e
Step3d: Hitung net input dari setiap neuron k pada lapisan
keluaran
o pk
net
1 L
o o
o pk
kj pj
k j
net w i
Step3e: Hitung nilai keluaran aktual dari setiap neuron k pada
lapisan keluaran o
pk
o
pk =
1 1
o pk
net
e
Step3f: if o
pk
0.5 then o
pk
= 0 else o
pk
= 1 Step 4: End for
Step 5: Selesai
Universitas Sumatera Utara
Hasil dari algoritma pengujian tersebut adalah vektor-vektor yang bernilai 0 atau 1. Dari setiap vektor keluaran yang dihasilkan tersebut maka akan dibandingkan
dengan vektor-vektor target yang bersesuaian dengan data yang digunakan pada pengujian. Dengan demikian dapat diketahui kemampuan memorisasi atau
kemampuan generalisasi dari jaringan saraf tersebut. Namun perlu diingat bahwa tujuan lain dari pelatihan jaringan adalah keseimbangan antara kemampuan
memorisasi dan kemampuan generalisasi jaringan Puspitaningrum, 2006. Kemampuan memorisasi dan kemampuan generalisasi jaringan diukur dari
berapa banyak pola yang dikenali, hal tersebut diketahui melalui nilai keluaran yang dihasilkan oleh jaringan saraf tersebut pada saat proses pengujian berlangsung.
Kemampuan memorisasi jaringan dapat dihitung dengan rumus berikut ini:
100 jumlah data yang dikenali
memorisasi jumlah data pelatihan
3. 4 Sedangkan kemampuan generalisasi jaringan dihitung dengan rumus:
100 jumlah data yang dikenali
generalisasi jumlah data pengujian
3. 5
Pada pengenalan wajah yang berbasis eigenfaces, data yang dikatakan dikenali adalah apabila data hasil normalisasi yang digunakan sebagai nilai masukan dapat
menghasilkan nilai keluaran aktual yang sama dengan nilai target yang diinginkan seperti pada tabel 3.4 dan tabel 3.7.
Universitas Sumatera Utara
BAB 4 HASIL DAN PEMBAHASAN