Analisis Diskriminan Linier ADL

2.2 Analisis Diskriminan Linier ADL

Analisis diskriminan adalah teknik statistik multivariat yang terkait dengan pemisahan separating atau alokasiklasifikasi classification sekelompok objek atau observasi ke dalam kelompok group yang telah terlebih dahulu didefinisikan. Dalam tujuan pengenalan objek observasi, metode ini mencoba menemukan suatu ‘discriminant’ yang nilainya secara numeris sedemikian sehingga mampu memisahkan objek yang karakteristiknya telah diketahui. Sedangkan dalam tujuan klasifikasi objek, metode ini akan mensortir objek observasi ke dalam 2 atau lebih kelas Fukunaga, 1990. Jika diberikan suatu matriks data N n A R   , metode ADL klasik bertujuan menemukan suatu transformasi N l G R   yang memetakan setiap kolom a i dari matriks A, untuk 1 ≤ i ≤ n, dalam ruang dimensi N ke vektor b i dalam ruang dimensi l. Yakni G : N n T l i i i a R G a R l N       b . Dengan kata lain, ADL bertujuan menemukan suatu ruang vektor  direntangkan oleh 1 { } l i i g  di mana G= [g 1 , g 2 , …,g l ], sehingga setiap a i diproyeksikan ke  oleh 1 . ,..., . T T T l i l i g a g a R  Ye et. al, 2004. Asumsikan bahwa data asli dalam A dipartisi ke dalam k kelas sehingga A = { ∏ 1 , ∏ 2 ,…, ∏ k }, dimana ∏ i memuat n i titik data dari kelas ke –i, dan 1 k i i n n    . ADL klasik bertujuan untuk menemukan transformasi optimal G sehingga struktur kelas dari data ruang berdimensi tinggi yang asli diubah ke dalam ruang berdimensi rendah Ye et. al, 2004. Dalam ADL, transformasi ke subruang yang berdimensi lebih rendah yaitu T i i y G x  Luo et al, 2007 2.8 di mana G merupakan transformasi ke subruang. Sering juga dituliskan dengan y 1 , ..., y n = G T x 1 , ..., x n atau Y = G T X. Tujuan utama dari ADL adalah mencari nilai G sehingga kelas dapat lebih terpisah dalam ruang transformasi dan dengan mudah dapat dibedakan dari yang lainnya. Universitas Sumatera Utara Dalam metode Analisis Diskriminan Linier, terdapat dua matriks sebaran yaitu matriks sebaran dalam-kelas disimbolkan dengan w S , dan matriks sebaran antar-kelas disimbolkan dengan b S , masing-masing didefinisikan sebagai berikut: 1 [ ][ ] k i c T w k i k i i x S x m x m        2.9 1 [ ][ ] c T b i i i i S n m m m m      2.10 di mana i n adalah jumlah sampel pada kelas i x , dan i m adalah image rata-rata dari kelas ke-i dan m adalah rata-rata keseluruhan. Rumus rata-rata kelas dan rata-rata keseluruhan adalah sebagai berikut: 1 i i x i m x n    adalah mean rata-rata dari kelas ke-i, dan 1 1 i k i x m x n      adalah rata-rata keseluruhan Fukunaga, 1990. Seperti diutarakan sebelumnya, metode Analisis Diskriminan Linier diharapkan dapat meminimumkan jarak dalam matriks sebaran dalam-kelas w S sementara jarak matriks sebaran antar-kelas b S dapat dimaksimumkan sehingga dapat terlihat perbedaan atau pemisahan antar kelas. Dalam hasil ruang dimensi yang lebih rendah dari transformasi linier G atau proyeksi linier ke dalam ruang vektor , b S dan w S menjadi , T b b S Y G S X G  2.11 . T w w S Y G S X G  2.12 Transformasi optimal G akan memaksimumkan trace L b S dan meminimumkan trace L w S . Optimisasi umum dalam Analisis Diskriminan Linier meliputi lihat Fukunaga, 1990 : 1 1 max{ } dan min{ } b w L L L L w b G G trace S S trace S S   2.13 Hal ini dituliskan dalam fungsi objektif optimum: Universitas Sumatera Utara max tr tr T b b T G w w S Y G S X G J G S Y G S X G   2.14 Catatan bahwa traceAB = traceB -1 A = trace AB -1 Masalah optimisasi dari persamaan 2.14 di atas ekivalen dengan masalah generalisasi nilai eigen berikut: b w S x S x   , untuk   0. Penyelesaiannya dapat diperoleh dengan menerapkan eigen-dekomposisi ke matriks 1 w b S S x  jika w S nonsingular, atau 1 b w S S x  jika b S nonsingular. Terdapat paling banyak k – 1 vektor- vektor eigen yang cocok ke nilai eigen tak nol, karena kedudukan dari matriks b S dibatasi oleh k – 1. Oleh karena itu, dimensi yang direduksi oleh ADL klasik terletak pada k – 1. Gambar berikut ini menunjukkan hasil dari penerapan metode Analisis Diskriminan Linier ADL dalam pengklasifikasian. Gambar 2.2 Hasil Klasifikasi dengan Analisis Diskriminan Linier Dalam hal transformasi setiap data, Fukunaga 1990 mengklasifikasikan himpunan data dan vektor uji ke dalam ruang transformasi melalui dua pendekatan yang berbeda sebagai berikut: 1. Transformasi Class-dependent yaitu pendekatan yang memaksimumkan rasio varians antar-kelas ke varians dalam-kelas. 2. Transformasi Class-independent yaitu memaksimumkan rasio seluruh varians dalam-kelas. Selain itu, ia juga menyajikan operasi matematika untuk mempermudah klasifikasi sejumlah objek yaitu: Universitas Sumatera Utara 1. Formulasikan himpunan data dan data uji yang akan diklasifikasikan dalam ruang aslinya. Untuk memudahkan pengertian, peneliti menggunakan dua data dan direpresentasikan ke dalam matriks yang berisi fitur dalam bentuk seperti berikut 11 12 21 22 1 2 1 m m a a a a set a a                      11 12 21 22 1 2 1 m m b b b b set b b                      2. Hitung rata-rata setiap himpunan data dan rata-rata dari seluruh data. Anggap 1  dan 2  adalah rata-rata dari himpunan data 1 dan 2, serta 3  sebagai rata-rata dari seluruh data yang diperoleh dari 3 1 1 2 2 p p      di mana p 1 dan p 2 adalah peluang dari masing-masing kelas. Pada kasus dua kelas, faktor peluang diasumsikan sebesar 0,5. 3. Matriks sebaran dalam kelas merupakan ekspektasi kovarians dari setiap kelas. dengan perhitungan sebagai berikut cov w j j j S p   Untuk permasalahan dua kelas, 1 2 0, 5 cov 0, 5 cov w S   Semua matriks kovarians adalah matriks yang simetris. Matriks kovarians dihitung menggunakan persamaan berikut cov T j j j j j x x      Matriks sebaran antar-kelas dihitung dengan menggunakan persamaan berikut 3 3 T b j j j S         Faktor optimisasi dalam tipe dependent-class transformasi dapat dihitung sebagai j criterion inv   j b cov S Faktor optimisasi dalam tipe independent-class transformasi dapat dihitung sebagai criterion inv   w b S S Universitas Sumatera Utara

2.3 Analisis Diskriminan Linier 2-Dimensi