METODOLOGI Pengaruh Faktor Proporsional Pada Jaringan Saraf Propagasi Balik Untuk Pengenalan Wajah Berbasis Eigenfaces

BAB III METODOLOGI

3.1 Metode Pengumpulan Data

Data yang digunakan pada penelitian ini merupakan data diskrit berbasis eigenfaces dari citra wajah . Untuk hal tersebut maka terlebih dahulu dilakukan pengolahan terhadap citra wajah agar memenuhi karekteristik yang diinginkan untuk penelitian ini, sehingga untuk selanjutnya dapat diproyeksikan menggunakan eigenfaces.

3.1.1 Pengambilan dan pengolahan citra wajah

Pengambilan citra wajah dilakukan dengan kamera digital terhadap lima orang dalam enam konfigurasi dasar wajah manusia secara psikologi, yaitu : netral, tertawa, senyum, sedih, marah, dan kaget Setawan, 1999. Citra wajah yang dihasilkan dari kamera digital tersebut adalah dalam format JPG, mode RGB, dan beresolusi 640 x 640. Citra Wajah tersebut dapat dilihat pada Lampiran A. Karekteristik citra wajah yang dihasilkan tersebut tidak memenuhi persyaratan untuk penelitian ini, sehingga dilakukan perubahan terhadap karekteristik citra wajah tersebut. Dengan menggunakan perangkat lunak Adobe Photoshop karekteristik citra wajah tersebut diubah menjadi format PCX, mode gray level 8 bit, dan beresolusi 64 x 64 yang dapat dilihat pada Lampiran B. Bagian dari citra wajah yang menjadi sasaran untuk dikenali adalah bagian mata, hidung dan mulut. Untuk mendapatkan bagian tersebut maka citra wajah tersebut dikropping dengan menggunakan perangkat lunak Adobe Photoshop, kropping dilakukan dengan sebuah windows berukuran 33 x 33 pada bagian mata, hidung, dan mulut. Hasil kropping tersebut dapat dilihat pada Lampiran C. Universitas Sumatera Utara Penelitian ini menggunakan data dalam bentuk pola-pola diskrit dari citra wajah, sehingga setiap citra wajah harus diubah representasinya dari keadaan kontinu ke dalam bentuk pola-pola diskrit melalui informasi gray level. Perubahan representasi citra wajah tersebut dapat dilakukan dengan perangkat lunak bacaimage. Perangkat lunak bacaimage yang dibuat oleh Drs. Suyanto M.Kom dan kawan-kawan, merupakan perangkat lunak yang mampu merubah representasi suatu citra wajah yang berformat PCX dengan mode gray level 8 bit dari keadaan kontinu ke keadaan diskrit. Hasil perubahan terhadap setiap citra wajah yang digunakan pada penelitian ini adalah sebuah matriks berukuran 33 x 33 yang berisi nilai-nilai diskrit dari setiap citra wajah. Untuk memudahkan dalam penggunaan data-data tersebut, maka dilakukanlah pelabelan terhadap data diskrit dari setiap citra wajah tersebut dengan cara sebagai berikut : Tabel 3. 1 Pelabelan Data Diskrit Dari Setiap Citra Wajah EKSPRESI WAJAH OBJEK NETRAL TERTAWA SENYUM SEDIH MARAH KAGET Orang-1 Foto-1 Foto-2 Foto-3 Foto-4 Foto-5 Foto-6 Orang-2 Foto-7 Foto-8 Foto-9 Foto-10 Foto-11 Foto-12 Orang-3 Foto-13 Foto-14 Foto-15 Foto-16 Foto-17 Foto-18 Orang-4 Foto-19 Foto-20 Foto-21 Foto-22 Foto-23 Foto-24 Orang-5 Foto-25 Foto-26 Foto-27 Foto-28 Foto-29 Foto-30

3.1.2 Proyeksi data diskrit citra wajah dengan eigenfaces

Proyeksi data diskrit citra wajah dengan eigenfaces merupakan penerapan metode Principal Component Analysis PCA pada data yang berbentuk citra wajah. Hal tersebut dapat dilakukan karena suatu citra wajah dapat dipandang sebagai suatu vektor Setawan, 1999. Jika citra tersebut memiliki lebar dan tinggi masing-masing adalah w dan h piksel, jumlah komponen vektor tersebut adalah w x h piksel. Berdasarkan tingkat keabuan, setiap piksel dikodekan dengan nilai 0 – 255 Setawan, 1999. Proyeksi dengan eigenfaces dilakukan karena“Space image yang utuh bukanlah merupakan space yang optimal untuk mendeskripsikan image wajah. Untuk image dengan lebar w, dan tinggi h, dimensi space wajah adalah w x h. Dalam hal ini Universitas Sumatera Utara tentunya dimensi tersebut tidak optimal, maka perlu dilakukan reduksi, namun perlu dipertimbangkan pula bahwa setiap piksel saling bergantung terhadap piksel tetangganya. Dengan demikian perlu suatu metode untuk mendapatkan dimensi yang optimal. Metode eigenfaces dapat digunakan untuk mentransformasi dan reduksi dimensi tanpa kehilangan ciri yang ada.”Setawan, 1999, hal: 7. Algoritma untuk memproyeksikan setiap data diskrit citra wajah yang berukuran N x N ke dalam face space dengan dimensi yang lebih kecil adalah sebagai berikut Step 1: for i= 1 to banyak data Step 1a: representasikan setiap matriks citra yang berukuran N x N ke dalam vektor wajah Γ i yang berukuran N 2 x 1 Step 2: end for Step 3: hitung vektor citra rata- rata Ψ Step 4: hitung mean subtracted images Φ i Step 5: Bentuk matriks covariance C Step 6: Hitung eigenvalue-eigenvalue dari matriks covariance Step 7: Tentukan eigenvektor-eigenvektor terbaik yang bersesuaian dari eigenvalue-eigenvalue terbesar. Eigenvektor-eigenvektor tersebut merupakan eigenfaces Step 8: Bentuk face space U Step 9: Proyeksikan setiap vektor image kedalam face space i  Step10: Selesai Proses transformasi dengan menggunakan metode eigenfaces berdasarkan algoritma tersebut akan menghasilkan 30 vektor hasil transformasi yang berdimensi 30 x 1.

3.2 Metode Normalisasi Data

Data hasil proyeksi ke dalam face space yang telah dikumpulkan sebelumnya harus dinormalkan terlebih dahulu sebelum selanjutnya akan menjadi data masukan pada penelitian ini. Data- data tersebut harus dinormalkan karena data-data tersebut bukanlah data yang sesuai untuk menjadi nilai masukan pada jaringan saraf propagasi balik. 29 Universitas Sumatera Utara Data yang sesuai untuk menjadi nilai masukan pada jaringan saraf propagasi balik adalah data yang terletak pada range -1 dan 1 atau pada range 0 dan 1,sehingga kuadrat dari data masukan berada pada range 0 dan 1Halim et al, 2000. Hal ini dilakukan agar nilai keluaran yang dihasilkan dapat terletak pada range 0 dan 1. Proses normalisasi data pada penelitian ini akan menggunakan rumusan matematis sebagai berikut Gazali, 2003 :   , , min min 2 1 , , 1, 2, 3, , 30 i j i j maks Normal i j                  3. 1 dimana , i j Normal = elemen dari matriks normal , i j  = elemen dari matriks hasil proyeksi ke dalam face space  maks  = nilai maksimum dari matriks hasil proyeksi ke dalam face space  min  = nilai minimum dari matriks hasil proyeksi ke dalam face space  Setiap kolom pada matriks normal tersebut adalah data hasil normalisasi dari setiap citra wajah yang akan digunakan sebagai data masukan pada penelitian ini. Untuk memudahkan dalam penggunaan data-data tersebut, maka dilakukanlah pelabelan terhadap data normal dari setiap citra wajah tersebut dengan cara sebagai berikut : Tabel 3. 2 Pelabelan Data Normal Dari Setiap Citra Wajah EKSPRESI WAJAH OBJEK NETRAL TERTAWA SENYUM SEDIH MARAH KAGET Orang-1 Normal-1 Normal-2 Normal-3 Normal-4 Normal-5 Normal-6 Orang-2 Normal -7 Normal -8 Normal -9 Normal -10 Normal -11 Normal -12 Orang-3 Normal -13 Normal -14 Normal -15 Normal -16 Normal -17 Normal -18 Orang-4 Normal -19 Normal -20 Normal -21 Normal -22 Normal -23 Normal -24 Orang-5 Normal -25 Normal -26 Normal -27 Normal -28 Normal -29 Normal -30 Universitas Sumatera Utara

3.3 Metode Penentuan arsitektur jaringan

Jaringan saraf propagasi balik yang digunakan pada penelitian ini merupakan jaringan saraf propagasi balik dengan 1 lapisan tersembunyi hidden layer. Dengan demikian penelitian ini akan menggunakan 3 lapisan yaitu lapisan masukan input layer , lapisan tersembunyi hidden layer dan lapisan keluaran output layer. Setiap lapisan akan memiliki neuron-neuron yang jumlahnya tergantung dari permasalahan yang akan diselesaikan. Data masukan pada penelitian ini adalah data hasil proyeksi ke dalam face space yang telah mengalami proses normalisasi dengan dimensi 30 x 1. Hal ini menyebabkan lapisan masukan pada penelitian ini akan memiliki neuron sebanyak 30 buah neuron. Untuk menentukan jumlah neuron pada lapisan keluaran, maka yang menjadi acuan adalah bagaimana cara mendefinisikan target keluaran dari suatu penelitian. Target keluaran dapat didefinisikan sesuai kebutuhan, dengan ketetapan yang harus dipegang adalah pola keluaran harus unik Setawan, 1999. Dalam penelitian ini terdapat 5 orang yang digunakan sebagai objek, maka harus terdapat 5 pola target keluaran yang unik. Dengan demikian maka pendefinisian pola target keluaran pada penelitian ini adalah sebagai berikut : Tabel 3. 3 Pendefinisian Target Keluaran ORANG KE- DIDEFINISIKAN 1 0 0 0 2 0 0 1 3 0 1 0 4 0 1 1 5 1 0 0 Dari pendefinisian diatas maka dapat disimpulkan bahwa lapisan keluaran pada penelitian ini akan memiliki neuron sebanyak 3 buah neuron. Universitas Sumatera Utara Untuk menentukan jumlah neuron pada lapisan tersembunyi banyak cara yang dapat digunakan. Salah satu cara yang digunakan pada penelitian ini adalah Saman, 2006 L N M  3. 2 dimana L = jumlah neuron pada lapisan tersembunyi N = jumlah neuron pada lapisan masukan M = jumlah neuron pada lapisan keluaran Dengan demikian maka pada penelitian ini jumlah neuron pada lapisan tersembunyi ada sebanyak 9 buah neuron. Sehingga arsitektur jaringan saraf yang digunakan pada penelitian ini dapat digambarkan sebagai berikut: Gambar 3. 1 Arsitektur jaringan saraf pada penelitian Bias i 1 1 j 9 Bias 1 2 3 . . . . . . . . . . . . . . . . . . Lapisan Masukan Lapisan Tersembunyi Lapisan Keluaran x p1 x pi x p30 M A S U K A N o p1 o p2 o p3 K E L U A R A N Universitas Sumatera Utara

3.4 Metode Inisialisasi Bobot-Bobot Awal

Bobot-bobot awal pada penelitian ini ditentukan menggunakan metode Nguyen- Widrow. Metode tersebut dikembangkan oleh Nguyen dan Widrow pada tahun 1990. Metode tersebut menggunakan faktor skala µ yang didefinisikan sebagai berikut Fausett, 1994: µ = 0.7 L 1N 3.3 dimana N = jumlah neuron pada lapisan masukan L = jumlah neuron pada lapisan tersembunyi Metode ini hanya digunakan untuk menginisialisasi bobot awal dari neuron-neuron lapisan masukan ke neuron-neuron lapisan tersembunyi, sedangkan bobot awal dari neuron-neuron lapisan tersembunyi ke neuron-neuron lapisan keluaran diinisialisasi dengan inisialisasi acakpuspitaningrum, 2006. Sehingga algoritma untuk melakukan inisialisasi bobot awal dengan metode Nguyen-Widrow adalah sebagai berikut: step 1 : Inisialisasi setiap bobot dari neuron-neuron lapisan masukan ke neuron-neuron lapisan tersembunyi h ji w dalam interval [-0.5 , 0.5 ] step 2 : Hitung faktor skala µ step 3 : Hitung 2 2 2 2 1 2 3 h h h h h j j j j jN w w w w w       step 4 : Hitung h ji h ji h j w lama w baru w   step 5 : Bobot untuk neuron bias diinisialisasi antara – µ dan µ Universitas Sumatera Utara

3.5 Metode Pelatihan

Pada saat pelatihan jaringan saraf dapat dipandang sebagai suatu sistem yang belajarPuspitaningrum, 2006. Belajar pada jaringan saraf propagasi balik adalah belajar yang terawasi, dimana terdapat pasangan masukan dan target yang harus dipenuhi sehingga dibutuhkan data masukan dan target untuk suatu pelatihan. Untuk hal tersebut maka pelatihan pada penelitian ini menggunakan data diskrit citra wajah dalam ekspresi netral, tertawa, senyum, dan marah yang telah mengalami proses normalisasi sebagai data masukan. Sedangkan data keluaran yang telah didefinisikan pada bagian 3. 3 digunakan sebagai data target. Data tersebut disusun berurutan dari orang pertama sampai orang ke lima dalam ekspresi netral, kemudian kembali lagi dari orang pertama sampai orang ke lima dalam ekspresi tertawa, dan seterusnya sampai orang ke lima dalam ekspresi marah. Pasangan data masukan dan target pelatihan pada penelitian ini adalah sebagai berikut Tabel 3. 4 Susunan Data Pelatihan DATA MASUKAN DATA TARGET Normal-1 0 0 0 Normal-7 0 0 1 Normal-13 0 1 0 Normal-19 0 1 1 Normal-25 1 0 0 Normal-2 0 0 0 Normal-8 0 0 1 Normal-14 0 1 0 Normal-20 0 1 1 Normal-26 1 0 0 Normal-3 0 0 0 Normal-9 0 0 1 Normal-15 0 1 0 Normal-21 0 1 1 Normal-27 1 0 0 Normal-5 0 0 0 Normal-11 0 0 1 Normal-17 0 1 0 Normal-23 0 1 1 Normal-29 1 0 0 Universitas Sumatera Utara Pada penelitian ini, pelatihan dilakukan melalui 2 tahap yaitu dengan jaringan saraf propagasi balik 2 faktor dan dengan jaringan saraf propagasi balik 3 faktor. Kedua jenis pelatihan tersebut dilakukan dengan menggunakan data pelatihan yang sama.

3.5.1 Metode pelatihan dengan jaringan saraf propagasi balik 2 faktor

Pelatihan dengan jaringan saraf propagasi balik yang menggunakan 2 faktor, yaitu laju pembelajaran α dan momentum β dilakukan berdasarkan algoritma berikut ini: Step 1: Inisialisasi bobot-bobot awal dari setiap lapisan Step 2: Set epoch maksimum = 1000, Kesalahan pelatihan maksimum = 0.01, epoch = 0 Step 3: Epoch = epoch + 1 Step 4: For p =1 to banyak data pelatihan do Step4a: setiap neuron i pada lapisan masukan meneruskan nilai- nilai masukan dari setiap pola masukan x pi Step4b: Hitung net input dari setiap neuron j pada lapisan tersembunyi h pj net 1 N h h h pj ji pi j i net w x      Step4c: Hitung nilai keluaran dari setiap neuron j pada lapisan tersembunyi i pj i pj = 1 1 h pj net e   Step4d: Hitung net input dari setiap neuron k pada lapisan keluaran o pk net 1 L o o o pk kj pj k j net w i      Step4f: Hitung nilai keluaran aktual dari setiap neuron k pada lapisan keluaran o pk o pk = 1 1 o pk net e   Step4g: Hitung kesalahan dari setiap neuron k pada lapisan keluaran o pk  o pk  = 1 pk pk pk pk y o o o   Universitas Sumatera Utara Step4h: Hitung kesalahan dari setiap neuron j pada lapisan tersembunyi o pj  h pj  = 1 pj pj i i  1 M o o pk kj k w    Step4i: Hitung perubahan bobot-bobot lapisan tersembunyi 1 h h h ji pj pi ji w p x w p         Step4j: Hitung perubahan bobot-bobot lapisan keluaran 1 o o o kj pk pj kj w p i w p         Step4k: Hitung bobot-bobot lapisan tersembunyi yang baru h ji w baru = h ji w lama + h ji w p  Step4l: Hitung bobot-bobot lapisan keluaran yang baru o kj w baru = o kj w lama + o kj w p  Step5: End for Step6: Hitung kesalahan pelatihan Step7: Kerjakan step 3 sampai step 6 jika kesalahan pelatihan kesalahan pelatihan maksimum atau epoch pelatihan epoch pelatihan maksimum Step8: Selesai Pelatihan dengan jaringan saraf propagasi balik yang menggunakan 2 faktor dilakukan dalam 2 kelompok pelatihan, setiap kelompok terdiri atas 9 percobaan yang berbeda berdasarkan nilai laju pembelajaran α dan momentum β yang digunakan. Setiap percobaan pada kelompok I menggunakan nilai yang sama dan meningkat dalam interval [0.1 , 0.9] untuk laju pembelajaran α dan momentum β. Sedangkan kelompok II menggunakan nilai laju pembelajaran α yang meningkat dari 0.1 sampai 0.9 sedangkan nilai momentum β yang digunakan akan menurun dari 0.9 sampai 0.1.

3.5.2 Metode pelatihan dengan jaringan saraf propagasi balik 3 faktor

Pelatihan dengan jaringan saraf propagasi balik dengan 3 faktor, yaitu laju pembelajaran α, momentum β dan faktor proporsional γ dilakukan berdasarkan algoritma berikut ini: Step 1: Inisialisasi bobot-bobot awal dari setiap lapisan Step 2: Set epoch maksimum = 1000, Kesalahan pelatihan maksimum = 0.01, epoch = 0 Step 3: Epoch = epoch + 1 Step 4: For p =1 to banyak data pelatihan do Step4a: setiap neuron i pada lapisan masukan meneruskan nilai- nilai masukan dari setiap pola masukan x pi Universitas Sumatera Utara Step4b: Hitung net input dari setiap neuron j pada lapisan tersembunyi h pj net 1 N h h h pj ji pi j i net w x      Step4c: Hitung nilai keluaran dari setiap neuron j pada lapisan tersembunyi i pj i pj = 1 1 h pj net e   Step4d: Hitung net input dari setiap neuron k pada lapisan keluaran o pk net 1 L o o o pk kj pj k j net w i      Step4f: Hitung nilai keluaran aktual dari setiap neuron k pada lapisan keluaran o pk o pk = 1 1 o pk net e   Step4g: Hitung kesalahan dari setiap neuron k pada lapisan keluaran o pk  o pk  = 1 pk pk pk pk y o o o   Step4h: Hitung kesalahan dari setiap neuron j pada lapisan tersembunyi o pj  h pj  = 1 pj pj i i  1 M o o pk kj k w    Step4i: Hitung 1 M k pk pk k e y o     Step4j: Hitung perubahan bobot-bobot lapisan tersembunyi 1 h h h ji pj pi ji w p x w p         +  e k Step4k: Hitung perubahan bobot-bobot lapisan keluaran 1 o o o kj pk pj kj w p i w p         +  e k Step4l: Hitung bobot-bobot lapisan tersembunyi yang baru h ji w baru = h ji w lama + h ji w p  Step4m: Hitung bobot-bobot lapisan keluaran yang baru o kj w baru = o kj w lama + o kj w p  Step5: End for Step6: Hitung kesalahan pelatihan Step7: Kerjakan step 3 sampai step 6 jika kesalahan pelatihan kesalahan pelatihan maksimum atau epoch pelatihan epoch pelatihan maksimum Step8: Selesai Universitas Sumatera Utara Untuk mengamati pengaruh faktor proporsional pada penelitian ini, maka pelatihan dilakukan dengan mengimplementasikan faktor proporsional tersebut ke- dalam setiap kelompok pelatihan jaringan saraf propagasi balik 2 faktor dalam 3 tahap. Implementasi tahap 1 dilakukan dengan nilai faktor proporsional γ pada interval [0.1 , 0.9], tahap 2 pada interval [0.01 , 0.09] dan tahap 3 pada interval [0.001 , 0.009]. Setiap tahap implementasi dilakukan secara menaik dan menurun.

3.6 Metode Pengujian

Hasil pelatihan pada jaringan saraf adalah bobot-bobot yang telah mengalami modifikasi selama pelatihan berlangsung. Hermawan 2006, hal:102 menyatakan bahwa tujuan akhir dari seluruh proses dengan menggunakan pendekatan jaringan saraf tiruan adalah menguji seberapa besar pola atau data dikenali oleh jaringan. Dengan demikian setelah pelatihan berakhir maka selanjutnya hasil pelatihan harus diuji untuk mengetahui tingkat keberhasilan pelatihan dalam waktu pelatihan yang telah ditetapkan. Tingkat keberhasilan tersebut diukur dari kemampuan memorisasi dan generalisasi jaringan. Hermawan 2006, hal:102 menyatakan bahwa pengujian biasanya dilakukan secara bertahap dengan melakukan pengujian terhadap data yang dilatihkan dan pengujian terhadap data baru.Data yang dilatihkan yang digunakan untuk proses pengujian adalah data pelatihan pada tabel 3. 4 sedangkan data baru yang digunakan pada proses pengujian disebut data pengujian. Pengujian dengan menggunakan data pelatihan digunakan untuk mengetahui kemampuan memorisasi jaringan, sedangkan pengujian dengan menggunakan data pengujian digunakan untuk mengetahui kemampuan generalisasi jaringan. Data pengujian pada penelitian ini adalah sebagai berikut : 38 Universitas Sumatera Utara Tabel 3. 7 Data Pengujian DATA MASUKAN DATA TARGET Normal-4 0 0 0 Normal-10 0 0 1 Normal-16 0 1 0 Normal-22 0 1 1 Normal-28 1 0 0 Normal-6 0 0 0 Normal-12 0 0 1 Normal-18 0 1 0 Normal-24 0 1 1 Normal-30 1 0 0 Proses pengujian pada penelitian ini menggunakan algoritma berikut ini Step 1: Inisialisasi bobot-bobot dari setiap lapisan dengan bobot- bobot hasil pelatihan Step 2: For p =1 to banyak data yang diujikan do Step3a: setiap neuron i pada lapisan masukan meneruskan nilai- nilai masukan dari setiap pola masukan x pi Step3b: Hitung net input dari setiap neuron j pada lapisan tersembunyi h pj net 1 N h h h pj ji pi j i net w x      Step3c: Hitung nilai keluaran dari setiap neuron j pada lapisan tersembunyi i pj i pj = 1 1 h pj net e   Step3d: Hitung net input dari setiap neuron k pada lapisan keluaran o pk net 1 L o o o pk kj pj k j net w i      Step3e: Hitung nilai keluaran aktual dari setiap neuron k pada lapisan keluaran o pk o pk = 1 1 o pk net e   Step3f: if o pk 0.5 then o pk = 0 else o pk = 1 Step 4: End for Step 5: Selesai Universitas Sumatera Utara Hasil dari algoritma pengujian tersebut adalah vektor-vektor yang bernilai 0 atau 1. Dari setiap vektor keluaran yang dihasilkan tersebut maka akan dibandingkan dengan vektor-vektor target yang bersesuaian dengan data yang digunakan pada pengujian. Dengan demikian dapat diketahui kemampuan memorisasi atau kemampuan generalisasi dari jaringan saraf tersebut. Namun perlu diingat bahwa tujuan lain dari pelatihan jaringan adalah keseimbangan antara kemampuan memorisasi dan kemampuan generalisasi jaringan Puspitaningrum, 2006. Kemampuan memorisasi dan kemampuan generalisasi jaringan diukur dari berapa banyak pola yang dikenali, hal tersebut diketahui melalui nilai keluaran yang dihasilkan oleh jaringan saraf tersebut pada saat proses pengujian berlangsung. Kemampuan memorisasi jaringan dapat dihitung dengan rumus berikut ini: 100 jumlah data yang dikenali memorisasi jumlah data pelatihan   3. 4 Sedangkan kemampuan generalisasi jaringan dihitung dengan rumus: 100 jumlah data yang dikenali generalisasi jumlah data pengujian   3. 5 Pada pengenalan wajah yang berbasis eigenfaces, data yang dikatakan dikenali adalah apabila data hasil normalisasi yang digunakan sebagai nilai masukan dapat menghasilkan nilai keluaran aktual yang sama dengan nilai target yang diinginkan seperti pada tabel 3.4 dan tabel 3.7. Universitas Sumatera Utara

BAB 4 HASIL DAN PEMBAHASAN