47
Pada Gambar 2.16 mengilustrasikan identifikasi dan pengenalan citra
dengan level k=2. Perhitungan bentuk piramida F T
j
…….F
N
T
j
untuk citra T
j
dan bentuk piramida F
k
Lo
i
…….F
N
Lo
i
bagi input citra resolusi rendah Lo
i
. Untuk setiap piksel dalam citra resolusi rendah akan ditemukan the closest matching parent
structure pada data resolusi tinggi. Mencatat dan menghasilkan output the best
matching image BI
i
dan lokasi piksel pada the best matching parent structure BP
i
. Struktur data ini keduanya bebas untuk setia piksel m,n pada citra Lo
i
dan membandingkannya dengan parent structure vector PS
k
Lo
i
m,n terhadap semua vektor struktur induk training pada level k yang sama. Misalnya membandingkan
PS
k
T
j
p,q bagi semua j dan semua p,q. The best matching image BI
i
m,n = j dan the best matching pixel
BP
i
m,n = p,q keduanya disimpan sebagai output keputusan dari pengenalan, dengan bebas untuk setiap piksel m,n pada Lo
i
. Pengenalan dengan vektor struktur induk ini untuk menemukan the closest
matching pixel pada training set dengan struktur induk untuk dua piksel adalah
hampir sama. Pencarian ini secara umum berlaku pada semua bentuk piksel pada
semua citra dalam training set .
2.5. Metode Statistik PCA
PCA Principle Component Analysis merupakan metode yang digunakan untuk menjalankan struktrur keragaman yaitu melalui suatu kombinasi linier dari
variabel-variabel. Metode ini dapat juga digunakan untuk mengurangi dimensi dari
Universitas Sumatera Utara
48 sebuah ruang. Dengan adanya pengurangan dimensi maka akan dihasilkan dimensi
basis baru yang lebih baik dalam menggambarkan berbagai kumpulan model. Model disini adalah sekumpulan citra resolusi tinggi dan citra resolusi rendah dalam tahap
training kemudian oleh kombinasi linier maka basis baru tersebut dilakukan
konstruksi. Sering sumbu pertama dari sebuah dataset menjelaskan variasi dari sumber
ukuran rata-rata untuk data allometric. Sebuah indikasi yang baik adalah sumbu utama principle axis sebesar varian yang digambarkan. Hal ini bertujuan
meningkatkan jumlah variabel sama dengan jumlah sumbu dalam peningkatan dataspace
, terlihat pada Gambar 2.17.
Untuk setengah data yang layak dengan 10-20 variabel diharapkan 30 dari variasi pada sumbu utama pertama. Dalam memperoleh satu sumbu utama yang
Gambar 2.17. Diagram dataspace . [21]
Universitas Sumatera Utara
49 cocok, dapat menggunakan sumbu kedua dengan varian yang lebih sedikit daripada
sumbu pertama. Sumbu kedua mengcitrakan kemungkinan variasi maksimum yakni: A.
Orthogonal sudut 90
o
pada sumbu utama pertama. B.
Dapat dihitung melalui rata-rata dari dataset mean of dataset.
2.5.1. Konsep dasar PCA Teori PCA pertama kali di kembangkan oleh para ahli statistika. Metode PCA
ini merupakan suatu teknik multivariate untuk menentukan korelasi antara sejumlah variabel kuatitatif. Teknik ini pertama kali dikembang pada tahun 1901 oleh
K.Pearsong kemudian pada tahun 1933 dikembangkan oleh Hotteling aplikasi analisa
PCA adalah menggunakan teknik pencarian kombinasi linier baku dari variabel data asli yang memiliki variasi yang maksimum. Secara umum teknik ini bertujuan untuk
mencari kombinasi linier yang digunakan untuk meminimalkan data tanpa kehilangan informasi. Komponen utama pertama merupakan proyeksi kombinasi dari titik
–titik pengamatan yang memiliki variansi terbesar diantara semua linier yang mungkin dan
komponen utama kedua memiliki variansi terbesar kedua yang orthogonal dengan komponen utama pertama dan seterusnya. Setiap komponen utama merupakan
kombinasi linier dari variabel –variabel aslinya dengan koefisien yang sama dangan
vektor –vektor karakteristik eigenvector dari matrik korelasi atau matrik kovariansi.
Variabel –variabel aslinya mempunyai nilai rata–rata 0 dan variasinya 1 sehingga
dapat menghindari kemungkinan suatu variabel memiliki kemungkinan yang tidak menguntungkan pada komponen utama. Komponen utama dipisahkan oleh nilai
–nilai
Universitas Sumatera Utara
50 karakteristik eigenvalues yang urutannya menurun dan sama untuk variansinya dari
semua komponen tersebut. Sehingga dari nilai komponen utama pertama, kedua, ketiga dan seterusnya nilainya akan menurun dan jumlahnya adalah 100.
Komponen utama juga merupakan teknik representasi data. Representasi data yang diperoleh memenuhi suatu kriteria optimal. Dengan menggunakan komponen utama
akan diperoleh kolom dan representasi baris pada ruang berdimensi satu garis, dua bidang, atau tiga ruang. Metode PCA diaplikasikan untuk menentukan aspek-
aspek dari obyek yang mana merupakan tahap penting untuk proses identifikasi. Vektor
–vektor karakteristik eigenvector dihitung dari sekumpulan data obyek. Setelah karakteristik didapatkan dan diwakili oleh sejumlah bobot maka bobot
–bobot tersebut dapat digunakan sebagai identifikasi [22].
2.5.2. Parameter dan variabel PCA
PCA merupakan upaya untuk mengelompokkan variabel –variabel yang
berkorelasi linier sejalan menjadi komponen utama. Sehingga dari “p” variabel akan
didapat “q” komponen utama yang dapat mewakili seluruh persoalan. Atau dapat dikatakan bahwa PCA adalah suatu metode untuk menyederhanakan atau mereduksi
variabel –variabel yang diamati dengan cara mengurangi dimensinya agar
mempermudah analisis selanjutnya. Jadi di sini terjadi transformasi variabel asal menjadi variabel baru yang lebih sederhana. Transformasi yang dimaksud adalah
Universitas Sumatera Utara
51 bersifat menghilangkan korelasi antar varaibel sehingga variabel baru yang di
hasilkan akan saling bebas [23]. Meskipun pada PCA terjadi pengurangan dimensi tetapi informasi yang diberikan
mengenai permasalahannya tidak akan berbeda atau sama. Dalam penerapannya, PCA tidak mutlak sebagai ukuran kepentingan suatu komponen karena mungkin
diperoleh suatu komponen utama yang memberikan keragaman yang tidak terlalu besar tetapi penaksirannya mudah, jelas dan bermanfaat. Metode ini pula dapat
digunakan untuk mereduksi sejumlah patch total variasi dalam training set yang dimasukkan, kemudian akan berusaha menjelaskan variasi tersebut kedalam suatu
nilai karakteristik. Walaupun dari sejumlah X variabel yang diamati maka dapat diturunkan menjadi beberapa buah Y komponen utama tetapi tidak semua nilai dari Y
digunakan untuk menjelaskan keragaman seluruh sistem, cukup beberapa Y saja. Ini sudah dapat menjelaskan secara memuaskan. Metode PCA dapat juga digunakan
sebagai tahap awal dari sistem pemrosesan data yang besar misalnya digunakan untuk membangun masukan data membentuk analisa regresi demikian juga dalam analisa
clustering dimana PCA digunakan sebagai input untuk menjelaskan pengelompokan.
Jika dilakukan penelitian terhadap N individu, dan setiap individu diselidiki p buah variabel karakteristik maka organisasi data pengamatan dapat ditulis dalam notasi
vektor sebagai berikut: X’ = X
1
, X
2
……….., Xp ............................. 2.22
2.5.3. Matriks karakteristik eigen
Universitas Sumatera Utara
52 Sistem karakteristik eigen sistem adalah inti dari metode PCA yang
berusaha merepresentasikan kemungkinan sebuah solusi yang dapat digunakan dalam sistem pengenalan sample matching pada sistem eigen akan dihitung nilai
karakteristik eigenvalue yang bersesuaian dengan vektor karakteristik eigenvector.
2.5.4. Nilai karakteristik dan vektor karakteristik
Teorema:
Misalkan A adalah sebuah matrik nxn, sebuah matrik bukan nol P yang berukuran nx1 sedemikian rupa sehingga AP =
P dinamakan vektor karakteristik bagi A, sedangkan skalar
dinamakan nilai karakteristik bagi A yang bersesuaian dengan Persamaan 2.23 pendefinisian yaitu:
AP = P ekivalen dengan IP = AP atau I
– AP = 0 ..... 2.23 Persamaan 2.24 terakhir akan mempunyai solusi bukan nol jika dan hanya jika
det I - A = 0
.......................................... 2.24 Hal ini memberi petunjuk tentang bagaimana cara memperoleh nilai karakteristik dan
vektor karakteristik.
2.5.5 Penentuan nilai karakteristik dan vektor karakteristik Untuk mendapatkan nilai karakteristik dan vektor karakteristik sekaligus
digunakan metode reduksi Householder. Metode ini hanya bisa dikerjakan untuk matrik simetris. Untuk memudahkan pencarian vektor karaktritik P yang bersesuaian
Universitas Sumatera Utara
53 dengan nilai karakteristik
pada matriks berukuran besar, maka diperlukan pemahaman mengenai metode reduksi Householder, dan perlu mengetahui defenisi
– definisi matematika dasar dan aljabar linier. Sebab tanpa dasar ini maka kita akan
kesulitan untuk mendapatkan pengertian vektor karakteristik yang bersesuaian dengan nilai karakteristik dalam metode reduksi Householder.
2.5.6. Transformasi kemiripan Transformasi
kemiripan Similarity
Transform adalah
untuk mentransformasikan matrik A ke matrik B yang similar dengan matrik A yang telah
dinormalisasi, dimana B adalah matrik diagonal yang dikomposisikan dari nilai karakteristik
1 , 2 , 3 …. n. Tujuannya adalah untuk menunjukkan bahwa nilai
karakteristik dari matrik diagonal B adalah nilai karakteristik dari A, dimana A dan B adalah dua matriks n x n dikatakan similar bila B = P
-1
AP. Dalam implementasi program untuk mendapatkan nilai karakteristik dan vektor karakteristik dengan
menggunakan matriks P invers, P
-1
akan mendapatkan kesulitan sebab nilai karakteristik di sini harus tidak boleh nol sehingga harus diusahakan agar p adalah
matrik orthogonal. Agar P orthogonal maka A harus simetris. Oleh karena A matrik nxn adalah matrik simetris maka matriks A
T
= A. Dari uraian diatas maka terbukti bahwa P adalah matrik yang dapat didiagonalkan secara orthogonal. Oleh karena P
adalah matrik orthogonal, maka matriks P
-1
= P
T
. Akibatnya, matrik diagonal B pada uraian sebelumnya yang semula ditulis B = P
-1
AP ekivalen dengan B = P
T
AP
Universitas Sumatera Utara
54 persamaan yang ditulis terakhir ini adalah persamaan untuk mendapatkan kemudahan
dalam menentukan nilai karakteristik dan vektor karakteristik dengan menggunakan reduksi matrik householder [24].
2.5.7. Standarisasi hasil PCA a. Memperoleh matrik dari semua koefisien korelasi
–korelasi matrik. Dimulai dengan n kolom data kemudian mengambil [n x n] matrik yang
menginformasikan mengenai hubungan antara setiap pasangan dari kolom.
b. Mendapatkan eigenvector dan eigenvalue dari matrik yang diperoleh dengan teknik multivariabel mencakup analisa eigenvector.
Contoh: Analisa eigenvector serta dapat juga terlihat pada Gambar 2.18.[21] a.
Menghubungkan dengan baik perkalian matrik. b.
Ambil [n x n] matrik m dan digunakan untuk mengalikan sebuah vektor [1 x n] pada baris 1.
c. Vektor [1 x n] baru yang dihasilkan dari angka berbeda disebut V
1.
d. Kalikan V
1
dengan m untuk mendapatkan V
2.
e. Kalikan V
2
dengan m untuk mendapatka V
3
dan seterusnya. f.
Setelah pengulangan dari elemen V dengan pola menurun yang tetap maka diperoleh dominan eigenvector dari matrik m yaitu
1.
Universitas Sumatera Utara
55 g.
Setiap waktu
1
dikalikan dengan m a constant multiple untuk memperoleh harga eigenvalue pertama dari m.e
1.
1 1
1
V1
V3 V2
V2 V1
After a while, each successive multiplication preserves the shape the eigenvector while increasing
values by a constant amount the eigenvalue
Secara umum standart deviasi, matrik kovarian dan matrik karakeristik dapat dijelaskan sebagai berikut:
1. Persamaan linier 2.25 secara umum dapat dituliskan sebagai berikut:
2. Standar deviasi variance
Y = Ax Y
1
= a
11
x
1
+ a
21
x
2
+……a
p1
x
p
Y
2
= a
12
x
1
+ a
22
x
2
+……a
p2
x
p .. .
. .
1
1 2
2
n X
X s
n i
i
……………..…… 2.26 Gambar.2.18. Skema mendapatkan eigenvector dan
Eigenvalue [21]
………………2.25
Universitas Sumatera Utara
56 3.
Matrik kovarian covariance Untuk menentukan matrik-matrik antara 2 variabel maka:
Dimana: covX,Y0: Dimensi naik bersama
covX,Y0: Satu Naik,Satu turun covX,Y=0: Dimensi bebas
Harga covariance antara semua kemungkinan dimensi:
4. Matrik karakteristik
Perhitungan nilai karakteristik eigenvalues dilakukan pada matrik karakteristik yang bersesuaian dengan vektor karakteristik eigenvector:
Vektor x dituliskan sebagai A x disebut eigenvectors dari A A = n x n matrik.
Persamaan Ax = x, adalah eigenvalue dari A.
Ax = x A-I x = 0
Bagaimana menghitung x dan :
1. Hitung det A- Ibidang polynomial derajat n.
2. Determinan rata-rata det A- Iakar adalah eigenvalues
3. A- Isetiap terdiri dari eigenvector x.
1 ,
cov
1
n Y
Y X
X Y
X
n i
i i
, cov
|
j i
ij ij
nxn
Dim Dim
c c
C
............................. 2.27
.........…... 2.28
Universitas Sumatera Utara
57
BAB 3 METODELOGI PENELITIAN