Principal Component Analysis PCA Proses Principal Component Analysis PCA Eigenface Contoh Perhitungan Eigenface

2.2.1 Principal Component Analysis PCA

Principal Component Analysis PCA adalah sebuah transformasi linier yang biasa digunakan untuk mereduksi data. Principal Component Analysis PCA adalah sebuah teknik statistika yang berguna pada bidang pengenalan, klasifikasi dan mereduksi data citra. PCA juga merupakan teknik yang umum digunakan. Karena Principal Component Analysis PCA sangat ampuh untuk mereduksi data baik seperti teks, citra, dan sinyal.

2.2.2 Proses Principal Component Analysis PCA Eigenface

Proses perhitungan PCA dapat dilakukan dengan langkah-langkah sebagai berikut Fatta, 2009 1. Mengambil satu set training citra wajah M. Misalkan M berjumlah 10 buah citra wajah. 2. Inisialisasi untuk tiap citra wajah dari set training. r adalah sebuah vektor × berdasarkan matriks dari citra wajah yang berukuran NxN. 3. Menghitung rata-rata vektor citra wajah = � ∑ � � �= 2.4 4. Melakukan normalisasi ukuran citra dengan melakukan pengurangan vektor citra wajah dengan nilai rata-rata tersebut. = � − 2.5 5. Menghitung matriks kovarian = � ∑ � � � = � � � �= 2.6 Dimana = [ … . � ] � 2.7 6. Dikarenakan ukuran matriks terlalu besar, maka pencarian matriks kovarian menjadi : = � 2.8 7. Menghitung eigenvalue λ dan eigenvector x dari matriks kovarian = � 2.9 8. Menghitung eigenvector sebanyak M dari matriks kovarian = � 2.10 dengan persamaan : � = . � 2.11 9. Melakukan normalisasi terhadap u. 10. Mengumpulkan eigenvector sebanyak K.

2.2.3 Contoh Perhitungan Eigenface

1. Terdapat 3 buah image yang masing-masing mempunyai 2x2 matriks. Image1 = [ ][ ] Image1 = [ ][ ] Image1 = [ ][ ] 2. Lalu ditransformasikan ke matriks × � S = [ ] 3. Mencari rata-rata vector + + = = . + + = = . + + = = + + = = . Sehingga didapatkan : = | . . . | 4. Mengurangi vector citra wajah dengan nilai Y [ ] − | . . . | = [ − . − . − − . ] [ ] − | . . . | = [ − . . . ] [ ] − | . . . | = [ . . − . ] 5. Selanjutnya, , , digabungkan menjadi satu matriks A = [ − . − . − − . − . . . . . − . ] 6. Menghitung kovarian menggunakan rumus � = [ − . − . . − . . . − − − . . . ] × [ − . − . − − . − . . . . . − . ] = [ . − − . − . − . − . − . ] 7. Menghitung eigenvalue dan eigenvector dari korvarian matriks . Untuk mempermudahkan perhitungan maka angka dirubah = [ − − − ] [ − � − − − � − −� ] = − � ∗ { − � −� − − } − ∗ { − −� − − − } + ∗ { − − − � − } = − � {− � + � + } − + −� + = − � { � − � + } + = − � { � − � + } = − � � − � − � = � = � = 8. Eigenvalue � , � , � yang didapat dari matriks digunakan untuk menghitung eigenvektor  Untuk � = [ − − − − − − ] [ ] = [− − − − ] [ ] = Diperolehlah persamaan: − + = − + = − + = Langkah selanjutnya dilakukan proses eliminasi sehingga diperoleh, [ ] = [ ] Eigenvektornya adalah [ ]  Untuk � = [ − − − − − − ] [ ] = [− − − − ] [ ] = Diperolehlah persamaan: − = − + − = − + − = Langkah selanjutnya dilakukan proses eliminasi sehingga diperoleh, [ ] = [ − ] Eigenvektornya adalah [ − ]  Untuk � = [ − − − − − − ] [ ] = [− − − − ] [ ] = Diperolehlah persamaan: − = − + − = − + − = Langkah selanjutnya dilakukan proses eliminasi sehingga diperoleh, [ ] = [ ] Eigenvektornya adalah [ ] 9. Menghitung eigenvektor sebanyak M dari matriks . � = . � = [ − . − . − − . − . . . . . − . ] × [ ] = [ − − − − ] = [ − . − . − − . − . . . . . − . ] × [ − ] = [ ] = [ − . − . − − . − . . . . . − . ] × [ ] = [ − . . . ] 10. Setelah itu eigenvalue diurutkan dari yang paling kecil sampai yang paling besar. Tabel 2.1 Hasil eigen value dan eigen vektor Eigenvalue Eigenvektor λ=3 -1.3333 0.6667 3 0.3333 λ=2 -8 -6 -1 -1 λ=1 8 6 1 1 11. Memproyeksikan � kedalam eigenspace = [− . . . ] × [ − . − . − − . ] = − . [− . . . ] × [ − . . . ] = . [− . . . ] × [ . . − . ] = − . = [− − − − ] × [ − . − . − − . ] = . [− − − − ] × [ − . . . ] = . [− − − − ] × [ . . − . ] = − . = [ − ] × [ − . − . − − . ] = − . [ − ] × [ − . . . ] = − . [ − ] × [ . . − . ] = . 12. Memasukkan nilai � kedalam sebuah vector � = [ − . . − . . . − . − . − . . ] 13. Langkah selanjutnya dari matriks omega ini di cari mean µ dan standar deviasi σ. 14. � = [ − . . − . . . − . − . − . . ]

2.3 Naive Bayesian