Metode Statistik PCA TINJAUAN PUSTAKA

47 Pada Gambar 2.16 mengilustrasikan identifikasi dan pengenalan citra dengan level k=2. Perhitungan bentuk piramida F T j …….F N T j untuk citra T j dan bentuk piramida F k Lo i …….F N Lo i bagi input citra resolusi rendah Lo i . Untuk setiap piksel dalam citra resolusi rendah akan ditemukan the closest matching parent structure pada data resolusi tinggi. Mencatat dan menghasilkan output the best matching image BI i dan lokasi piksel pada the best matching parent structure BP i . Struktur data ini keduanya bebas untuk setia piksel m,n pada citra Lo i dan membandingkannya dengan parent structure vector PS k Lo i m,n terhadap semua vektor struktur induk training pada level k yang sama. Misalnya membandingkan PS k T j p,q bagi semua j dan semua p,q. The best matching image BI i m,n = j dan the best matching pixel BP i m,n = p,q keduanya disimpan sebagai output keputusan dari pengenalan, dengan bebas untuk setiap piksel m,n pada Lo i . Pengenalan dengan vektor struktur induk ini untuk menemukan the closest matching pixel pada training set dengan struktur induk untuk dua piksel adalah hampir sama. Pencarian ini secara umum berlaku pada semua bentuk piksel pada semua citra dalam training set .

2.5. Metode Statistik PCA

PCA Principle Component Analysis merupakan metode yang digunakan untuk menjalankan struktrur keragaman yaitu melalui suatu kombinasi linier dari variabel-variabel. Metode ini dapat juga digunakan untuk mengurangi dimensi dari Universitas Sumatera Utara 48 sebuah ruang. Dengan adanya pengurangan dimensi maka akan dihasilkan dimensi basis baru yang lebih baik dalam menggambarkan berbagai kumpulan model. Model disini adalah sekumpulan citra resolusi tinggi dan citra resolusi rendah dalam tahap training kemudian oleh kombinasi linier maka basis baru tersebut dilakukan konstruksi. Sering sumbu pertama dari sebuah dataset menjelaskan variasi dari sumber ukuran rata-rata untuk data allometric. Sebuah indikasi yang baik adalah sumbu utama principle axis sebesar varian yang digambarkan. Hal ini bertujuan meningkatkan jumlah variabel sama dengan jumlah sumbu dalam peningkatan dataspace , terlihat pada Gambar 2.17. Untuk setengah data yang layak dengan 10-20 variabel diharapkan 30 dari variasi pada sumbu utama pertama. Dalam memperoleh satu sumbu utama yang Gambar 2.17. Diagram dataspace . [21] Universitas Sumatera Utara 49 cocok, dapat menggunakan sumbu kedua dengan varian yang lebih sedikit daripada sumbu pertama. Sumbu kedua mengcitrakan kemungkinan variasi maksimum yakni: A. Orthogonal sudut 90 o pada sumbu utama pertama. B. Dapat dihitung melalui rata-rata dari dataset mean of dataset. 2.5.1. Konsep dasar PCA Teori PCA pertama kali di kembangkan oleh para ahli statistika. Metode PCA ini merupakan suatu teknik multivariate untuk menentukan korelasi antara sejumlah variabel kuatitatif. Teknik ini pertama kali dikembang pada tahun 1901 oleh K.Pearsong kemudian pada tahun 1933 dikembangkan oleh Hotteling aplikasi analisa PCA adalah menggunakan teknik pencarian kombinasi linier baku dari variabel data asli yang memiliki variasi yang maksimum. Secara umum teknik ini bertujuan untuk mencari kombinasi linier yang digunakan untuk meminimalkan data tanpa kehilangan informasi. Komponen utama pertama merupakan proyeksi kombinasi dari titik –titik pengamatan yang memiliki variansi terbesar diantara semua linier yang mungkin dan komponen utama kedua memiliki variansi terbesar kedua yang orthogonal dengan komponen utama pertama dan seterusnya. Setiap komponen utama merupakan kombinasi linier dari variabel –variabel aslinya dengan koefisien yang sama dangan vektor –vektor karakteristik eigenvector dari matrik korelasi atau matrik kovariansi. Variabel –variabel aslinya mempunyai nilai rata–rata 0 dan variasinya 1 sehingga dapat menghindari kemungkinan suatu variabel memiliki kemungkinan yang tidak menguntungkan pada komponen utama. Komponen utama dipisahkan oleh nilai –nilai Universitas Sumatera Utara 50 karakteristik eigenvalues yang urutannya menurun dan sama untuk variansinya dari semua komponen tersebut. Sehingga dari nilai komponen utama pertama, kedua, ketiga dan seterusnya nilainya akan menurun dan jumlahnya adalah 100. Komponen utama juga merupakan teknik representasi data. Representasi data yang diperoleh memenuhi suatu kriteria optimal. Dengan menggunakan komponen utama akan diperoleh kolom dan representasi baris pada ruang berdimensi satu garis, dua bidang, atau tiga ruang. Metode PCA diaplikasikan untuk menentukan aspek- aspek dari obyek yang mana merupakan tahap penting untuk proses identifikasi. Vektor –vektor karakteristik eigenvector dihitung dari sekumpulan data obyek. Setelah karakteristik didapatkan dan diwakili oleh sejumlah bobot maka bobot –bobot tersebut dapat digunakan sebagai identifikasi [22]. 2.5.2. Parameter dan variabel PCA PCA merupakan upaya untuk mengelompokkan variabel –variabel yang berkorelasi linier sejalan menjadi komponen utama. Sehingga dari “p” variabel akan didapat “q” komponen utama yang dapat mewakili seluruh persoalan. Atau dapat dikatakan bahwa PCA adalah suatu metode untuk menyederhanakan atau mereduksi variabel –variabel yang diamati dengan cara mengurangi dimensinya agar mempermudah analisis selanjutnya. Jadi di sini terjadi transformasi variabel asal menjadi variabel baru yang lebih sederhana. Transformasi yang dimaksud adalah Universitas Sumatera Utara 51 bersifat menghilangkan korelasi antar varaibel sehingga variabel baru yang di hasilkan akan saling bebas [23]. Meskipun pada PCA terjadi pengurangan dimensi tetapi informasi yang diberikan mengenai permasalahannya tidak akan berbeda atau sama. Dalam penerapannya, PCA tidak mutlak sebagai ukuran kepentingan suatu komponen karena mungkin diperoleh suatu komponen utama yang memberikan keragaman yang tidak terlalu besar tetapi penaksirannya mudah, jelas dan bermanfaat. Metode ini pula dapat digunakan untuk mereduksi sejumlah patch total variasi dalam training set yang dimasukkan, kemudian akan berusaha menjelaskan variasi tersebut kedalam suatu nilai karakteristik. Walaupun dari sejumlah X variabel yang diamati maka dapat diturunkan menjadi beberapa buah Y komponen utama tetapi tidak semua nilai dari Y digunakan untuk menjelaskan keragaman seluruh sistem, cukup beberapa Y saja. Ini sudah dapat menjelaskan secara memuaskan. Metode PCA dapat juga digunakan sebagai tahap awal dari sistem pemrosesan data yang besar misalnya digunakan untuk membangun masukan data membentuk analisa regresi demikian juga dalam analisa clustering dimana PCA digunakan sebagai input untuk menjelaskan pengelompokan. Jika dilakukan penelitian terhadap N individu, dan setiap individu diselidiki p buah variabel karakteristik maka organisasi data pengamatan dapat ditulis dalam notasi vektor sebagai berikut: X’ = X 1 , X 2 ……….., Xp ............................. 2.22 2.5.3. Matriks karakteristik eigen Universitas Sumatera Utara 52 Sistem karakteristik eigen sistem adalah inti dari metode PCA yang berusaha merepresentasikan kemungkinan sebuah solusi yang dapat digunakan dalam sistem pengenalan sample matching pada sistem eigen akan dihitung nilai karakteristik eigenvalue yang bersesuaian dengan vektor karakteristik eigenvector. 2.5.4. Nilai karakteristik dan vektor karakteristik Teorema: Misalkan A adalah sebuah matrik nxn, sebuah matrik bukan nol P yang berukuran nx1 sedemikian rupa sehingga AP = P dinamakan vektor karakteristik bagi A, sedangkan skalar  dinamakan nilai karakteristik bagi A yang bersesuaian dengan Persamaan 2.23 pendefinisian yaitu: AP = P ekivalen dengan IP = AP atau I – AP = 0 ..... 2.23 Persamaan 2.24 terakhir akan mempunyai solusi bukan nol jika dan hanya jika det I - A = 0 .......................................... 2.24 Hal ini memberi petunjuk tentang bagaimana cara memperoleh nilai karakteristik dan vektor karakteristik. 2.5.5 Penentuan nilai karakteristik dan vektor karakteristik Untuk mendapatkan nilai karakteristik dan vektor karakteristik sekaligus digunakan metode reduksi Householder. Metode ini hanya bisa dikerjakan untuk matrik simetris. Untuk memudahkan pencarian vektor karaktritik P yang bersesuaian Universitas Sumatera Utara 53 dengan nilai karakteristik  pada matriks berukuran besar, maka diperlukan pemahaman mengenai metode reduksi Householder, dan perlu mengetahui defenisi – definisi matematika dasar dan aljabar linier. Sebab tanpa dasar ini maka kita akan kesulitan untuk mendapatkan pengertian vektor karakteristik yang bersesuaian dengan nilai karakteristik dalam metode reduksi Householder. 2.5.6. Transformasi kemiripan Transformasi kemiripan Similarity Transform adalah untuk mentransformasikan matrik A ke matrik B yang similar dengan matrik A yang telah dinormalisasi, dimana B adalah matrik diagonal yang dikomposisikan dari nilai karakteristik 1 , 2 , 3 ….  n. Tujuannya adalah untuk menunjukkan bahwa nilai karakteristik dari matrik diagonal B adalah nilai karakteristik dari A, dimana A dan B adalah dua matriks n x n dikatakan similar bila B = P -1 AP. Dalam implementasi program untuk mendapatkan nilai karakteristik dan vektor karakteristik dengan menggunakan matriks P invers, P -1 akan mendapatkan kesulitan sebab nilai karakteristik di sini harus tidak boleh nol sehingga harus diusahakan agar p adalah matrik orthogonal. Agar P orthogonal maka A harus simetris. Oleh karena A matrik nxn adalah matrik simetris maka matriks A T = A. Dari uraian diatas maka terbukti bahwa P adalah matrik yang dapat didiagonalkan secara orthogonal. Oleh karena P adalah matrik orthogonal, maka matriks P -1 = P T . Akibatnya, matrik diagonal B pada uraian sebelumnya yang semula ditulis B = P -1 AP ekivalen dengan B = P T AP Universitas Sumatera Utara 54 persamaan yang ditulis terakhir ini adalah persamaan untuk mendapatkan kemudahan dalam menentukan nilai karakteristik dan vektor karakteristik dengan menggunakan reduksi matrik householder [24]. 2.5.7. Standarisasi hasil PCA a. Memperoleh matrik dari semua koefisien korelasi –korelasi matrik. Dimulai dengan n kolom data kemudian mengambil [n x n] matrik yang menginformasikan mengenai hubungan antara setiap pasangan dari kolom. b. Mendapatkan eigenvector dan eigenvalue dari matrik yang diperoleh dengan teknik multivariabel mencakup analisa eigenvector. Contoh: Analisa eigenvector serta dapat juga terlihat pada Gambar 2.18.[21] a. Menghubungkan dengan baik perkalian matrik. b. Ambil [n x n] matrik m dan digunakan untuk mengalikan sebuah vektor [1 x n] pada baris 1. c. Vektor [1 x n] baru yang dihasilkan dari angka berbeda disebut V 1. d. Kalikan V 1 dengan m untuk mendapatkan V 2. e. Kalikan V 2 dengan m untuk mendapatka V 3 dan seterusnya. f. Setelah pengulangan dari elemen V dengan pola menurun yang tetap maka diperoleh dominan eigenvector dari matrik m yaitu  1. Universitas Sumatera Utara 55 g. Setiap waktu  1 dikalikan dengan m a constant multiple untuk memperoleh harga eigenvalue pertama dari m.e 1. 1 1 1 V1 V3 V2 V2 V1 After a while, each successive multiplication preserves the shape the eigenvector while increasing values by a constant amount the eigenvalue Secara umum standart deviasi, matrik kovarian dan matrik karakeristik dapat dijelaskan sebagai berikut: 1. Persamaan linier 2.25 secara umum dapat dituliskan sebagai berikut: 2. Standar deviasi variance Y = Ax Y 1 = a 11 x 1 + a 21 x 2 +……a p1 x p Y 2 = a 12 x 1 + a 22 x 2 +……a p2 x p .. . . . 1 1 2 2      n X X s n i i ……………..…… 2.26 Gambar.2.18. Skema mendapatkan eigenvector dan Eigenvalue [21] ………………2.25 Universitas Sumatera Utara 56 3. Matrik kovarian covariance Untuk menentukan matrik-matrik antara 2 variabel maka: Dimana: covX,Y0: Dimensi naik bersama covX,Y0: Satu Naik,Satu turun covX,Y=0: Dimensi bebas Harga covariance antara semua kemungkinan dimensi: 4. Matrik karakteristik Perhitungan nilai karakteristik eigenvalues dilakukan pada matrik karakteristik yang bersesuaian dengan vektor karakteristik eigenvector: Vektor x dituliskan sebagai A x disebut eigenvectors dari A A = n x n matrik. Persamaan Ax = x, adalah eigenvalue dari A. Ax = x  A-I x = 0 Bagaimana menghitung x dan : 1. Hitung det A- Ibidang polynomial derajat n. 2. Determinan rata-rata det A- Iakar adalah eigenvalues  3. A- Isetiap  terdiri dari eigenvector x. 1 , cov 1       n Y Y X X Y X n i i i , cov | j i ij ij nxn Dim Dim c c C   ............................. 2.27 .........…... 2.28 Universitas Sumatera Utara 57

BAB 3 METODELOGI PENELITIAN