Companding Function Ekstraksi Fitur menggunakan Principal Component Analysis

2.5. Companding Function

Companding merupakan sebuah metode kuantisasi pada bidang telekomunikasi dalam pengiriman signal Bosi, et al. 2003. Companding function atau disebut juga fungsi kompresi dan ekspansi, dimana kata companding merupakan gabungan dari dua kata compressing dan expanding. Fungsi kompresi dan ekspansi digunakan untuk memetakan sebuah input x pada nilai y dengan persamaan y = cx, dimana nilai y akan memiliki nilai yang lebih tinggi dibandingkan x dan c adalah companding function Bosi, et al. 2003. Fungsi kompresi dan ekspansi biasanya bersifat non- simetris diantara garis x=0, sehingga nilai negatif tetap dimetakan pada nilai negatif. Fungsi ini akan memetakan nilai dengan jangkauan [0,0, 1,0] tetap pada jangkauan [0,0, 1,0], tetapi dengan nilai varian lebih tinggi. Terdapat dua aturan companding yang digunakan secara luas, yakni: A-Law Companding yang digunakan di Eropa dan µ-Law Companding yang digunakan di Amerika Utara Manassah, 2012. Kedua fungsi kompresi dan ekspansi A-Law Companding dan µ-Law Companding dapat direpresentasikan dengan persamaan berikut:         1 x y 2.4 dimana y adalah nilai setelah kompresi dan ekspansi; x adalah nilai sebelum kompresi dan ekspansi; β merupakan sebuah konstanta dengan nilai 1.5, yang merupakan nilai paling optimum dalam fungsi kompresi dan ekspansi untuk identifikasi file McDaniel, 2001.

2.6. Ekstraksi Fitur menggunakan Principal Component Analysis

Ekstraksi fitur adalah proses yang dilakukan untuk mengurangi dimensionalitas dari kumpulan fitur input yang dimiliki Roweis, et al. 2000. Apabila sebuah algoritma harus melakukan proses terhadap input data dengan jumlah yang sangat besar, akan terdapat kemungkinan algoritma tersebut akan memerlukan waktu yang lama untuk menghasilkan output serta memerlukan memori yang cukup besar. Selain itu, dalam input data dengan jumlah yang sangat besar tersebut mungkin terdapat data yang Universitas Sumatera Utara redundan, sehingga diperlukan reduksi dimensionalitas dari input data untuk menghilangkan data yang redundan tersebut. Ekstraksi fitur dilakukan dengan melakukan transformasi data input menjadi kumpulan fitur yang disebut fitur hasil ekstraksi dengan tidak mengurangi informasi yang terkandung pada data input. Alasan lain melakukan ekstraksi fitur adalah untuk mengurangi memori serta kekuatan komputasi yang diperlukan dalam memproses data. Salah satu teknik yang umum digunakan dalam ekstraksi fitur adalah Principal Components Analysis PCA. PCA telah diimplementasikan dalam pengenalan wajah Morizet, 2007 serta dalam peningkatan kemampuan model prediktif Vivanco, 2008. PCA adalah sebuah teknik statistika yang melakukan transformasi terhadap himpunan asli sekumpulan variabel menjadi himpunan variabel yang lebih kecil dan tidak saling berkorelasi tetapi tetap mampu merepresentasikan informasi yang terdapat pada himpunan variabel asli Dunteman, 1989. Himpunan variabel yang lebih kecil dan tidak saling berkorelasi ini disebut juga dengan principal components. Adapun tujuan utama dari PCA adalah untuk mengurangi dimensionalitas dari data asli, sehingga data akan lebih mudah dimengerti dan digunakan dalam analisis lebih jauh. Metode PCA akan mencoba untuk mencari sebuah dataset yang mampu mendeskripsikan dataset asli dengan tetap menjaga informasi yang tersimpan sebanyak mungkin Amirani, et al. 2008. Misalkan X = {x n  R d | n = 1, 2, ..., N} merepresentasikan sebuah dataset dengan dimensi d, PCA akan menghasilkan sebuah dataset Z, dimana Z = {z n  R k | n = 1, 2, ..., N} dengan dimensi k, dimana nilai k adalah lebih kecil dari d. Langkah-langkah yang dilakukan dalam PCA terdiri atas Jolliffe, 2002: 1. Lakukan normalisasi Z-score pada setiap dimensi data yang ada menggunakan rumus 2.2. Tahap ini akan menghasilkan sebuah dataset dengan mean atau rata- rata bernilai nol. 2. Komputasikan nilai matriks kovarian menggunakan rumus: X X m T 1   2.5 Universitas Sumatera Utara dimana  adalah matriks kovarian; m merupakan banyak data pada dataset; X adalah dataset asli yang disusun dalam bentuk matriks dengan setiap kolom merupakan fitur, dan setiap baris merupakan kumpulan fitur untuk satu objek; X T merupakan transpos dari matriks X. Apabila data asli memiliki dimensi d maka hasil dari matriks kovarian adalah sebuah matriks dengan ukuran dxd. 3. Kalkulasikan nilai dari eigenvalue serta eigenvector dari matriks kovarian, serta urutkan eigenvector sesuai dengan nilai eigenvalue yang dimiliki secara menurun eigenvector dengan nilai eigenvalue yang lebih tinggi berada pada sisi kiri matriks. Eigenvalue dan eigenvector merupakan vector-vector yang mengkarakterisasikan data. 4. Pilih komponen dari eigenvector dan membentuk sebuah vektor fitur U. Apabila dimiliki data awal dengan dimensi d, maka akan didapatkan eigenvector sebanyak d, sehingga apabila dari d eigenvector tersebut dipilih k eigenvector, maka akan dihasilkan data hasil PCA dengan dimensi k. Pemilihan eigenvector dilakukan berdasarkan nilai eigenvalue yang dimiliki oleh eigenvector. Apabila dipilih eigenvector dengan nilai eigenvalue rendah, maka informasi yang tersimpan pada data asli akan berkurang pada data hasil PCA, karena eigenvector dengan eigenvalue rendah menunjukkan data yang direpresentasikan pada vektor tersebut kurang signifikan, tetapi apabila dipilih eigenvector dengan nilai eigenvalue tinggi, maka informasi data asli tetap akan terjaga pada data hasil PCA. Penentuan nilai dimensi k untuk dataset hasil PCA biasanya ditentukan dengan memperhitungkan nilai retain rate. Retain rate adalah persentase informasi yang direpresentasikan oleh data asli dan tetap terjaga pada data hasil PCA. Pemilihan nilai dimensi k pada umumnya dipilih dengan menjaga retain rate pada 0,99, atau dengan kata lain hampir seluruh informasi pada data asli tetap dapat direpresentasikan oleh data hasil PCA. Secara teknis hal ini dapat dilakukan dengan memilih nilai k terkecil yang memenuhi persamaan berikut: 99 , 1 1      m i k i i Si S 2.6 Universitas Sumatera Utara dimana S i adalah eigenvalue pada posisi ke-i dengan eigenvector serta eigenvalue telah diurutkan secara menurun. Seluruh nilai dari eigenvector yang dipilih kemudian disusun menjadi sebuah matriks vektor fitur U, dimana setiap eigenvector yang dipilih akan menjadi kolom dari matriks vektor fitur U. 5. Hitung nilai dari dataset final dengan menggunakan rumus X U Z T  2.7 dimana Z merupakan dataset hasil PCA dalam bentuk matriks; U adalah matriks vektor yang didapatkan pada tahap sebelumnya; X adalah matriks dataset asli.

2.7. Artificial Neural Network