Analisis komponen utama kernel: suatu studi eksplorasi pembakuan peubah

ANALISIS KOMPONEN UTAMA KERNEL:
SUATU STUDI EKSPLORASI PEMBAKUAN PEUBAH

PUTRI THAMARA

DEPARTEMEN MATEMATIKA
FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM
INSTITUT PERTANIAN BOGOR
BOGOR
2014

PERNYATAAN MENGENAI SKRIPSI DAN
SUMBER INFORMASI SERTA PELIMPAHAN HAK CIPTA
Dengan ini saya menyatakan bahwa skripsi berjudul Analisis Komponen
Utama Kernel: Suatu Studi Eksplorasi Pembakuan Peubah adalah benar karya
saya dengan arahan dari komisi pembimbing dan belum diajukan dalam bentuk
apapun kepada perguruan tinggi manapun. Sumber informasi yang berasal atau
dikutip dari karya yang diterbitkan maupun tidak diterbitkan dari penulis lain telah
disebutkan dalam teks dan dicantumkan dalam Daftar Pustaka di bagian akhir
skripsi ini.
Dengan ini saya melimpahkan hak cipta dari karya tulis saya kepada Institut

Pertanian Bogor.
Bogor, November 2014
Putri Thamara
NIM G54100050

ABSTRAK
PUTRI THAMARA. Analisis Komponen Utama Kernel: Suatu Studi Eksplorasi
Pembakuan Peubah. Dibimbing oleh SISWADI dan TONI BAKHTIAR.
Analisis Komponen Utama Kernel (AKUK) merupakan perluasan dari
Analisis Komponen Utama (AKU) yang berguna untuk menyelesaikan masalah
data yang takterpisah atau taklinear. AKUK adalah AKU yang diterapkan di ruang
fitur, yang merupakan ruang hasil pemetaan objek-objek dari ruang asal. Pada
AKUK, data asal dipetakan ke ruang fitur. Namun tidak semua hasil pemetaannya
diketahui, sehingga nilai eigen dan vektor eigen hanya dapat diperoleh dari
matriks dual hasil pemetaan tersebut di ruang fitur, tidak dari matriks primalnya.
Hasil kali dalam dari pemetaan di ruang fitur disebut dengan fungsi kernel. Fungsi
kernel polinom memiliki hasil pemetaan yang jelas sehingga pembakuan peubah
di ruang fitur dapat dieksplorasi. Pada karya tulis ini, eksplorasi pembakuan
peubah diterapkan pada data pengenalan anggur (Forina 1991). Eksplorasi
pembakuan peubah tersebut memberikan gambaran bahwa ada perbedaan pada

waktu pembakuan dilakukan terhadap konfigurasi yang terbentuk dan terhadap
nilai salah klasifikasinya. Perbedaan hasil pembakuan peubah tercermin dari
ukuran kemiripan dan nilai salah klasifikasinya.
Kata kunci: Analisis Komponen Utama, Analisis Komponen Utama Kernel,
Fungsi Kernel Polinom, Pembakuan Peubah

ABSTRACT
PUTRI THAMARA. Kernel Principal Component Analysis: an Exploratory Study
on Standardization of Variables. Supervised by SISWADI and TONI
BAKHTIAR.
Kernel Principal Component Analysis (KPCA) is an extension of the
Principal Component Analysis (PCA) which are useful to solve the problem of
data which are unseparable or nonlinear. The KPCA is also considered as a PCA
applied in the feature space. In the KPCA, the original data were mapped into the
feature space. However, if they are mapping results are unknown, therefore the
eigenvalues and eigenvectors can only be obtained from the dual matrix mapping
results in the feature space, not from the primal matrix. An inner product of the
mapping in the feature space called the kernel function. The Polynomial kernel
function has a clear mapping results, so that standardization of variables in the
feature space could be explored. In this paper, exploratory on standardization of

variables were applied into the wine recognition datasets (Forina 1991).
Exploratory on standardization of the variables illustrate that there is a difference
on time of standardization conducted into the configuration and to the
missclassification error. The difference in the results of standardization of
variables reflected goodness of fit and value of the missclassification error.
Keywords: Principal Component Analysis, Kernel Principal Component Analysis,
Polynomial Kernel Function, Standardized Variable.

ANALISIS KOMPONEN UTAMA KERNEL:
SUATU STUDI EKSPLORASI PEMBAKUAN PEUBAH

PUTRI THAMARA

Skripsi
sebagai salah satu syarat untuk memperoleh gelar
Sarjana Sains
pada
Departemen Matematika

DEPARTEMEN MATEMATIKA

FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM
INSTITUT PERTANIAN BOGOR
BOGOR
2014

Judul Skripsi : Analisis Komponen Utama Kernel: Suatu Studi Eksplorasi
Pembakuan Peubah
Nama
: Putri Thamara
NIM
: G54100050

Disetujui oleh

Prof Dr Ir Siswadi, MSc
Pembimbing I

Dr Toni Bakhtiar, MSc
Pembimbing II


Diketahui oleh

Dr Toni Bakhtiar, MSc
Ketua Departemen

Tanggal Lulus:

PRAKATA
Alhamdulillaahirabbil’aalamiin. Puji dan syukur Penulis panjatkan ke
hadirat Alloh SWT atas segala nikmat dan karunia-Nya sehingga karya ilmiah ini
dapat diselesaikan. Penulis karya ilmiah ini juga tidak lepas dari bantuan dan
dukungan dari berbagai pihak. Untuk itu Penulis mengucapkan terimakasih
kepada Prof Dr Ir Siswadi, MSc dan Dr Toni Bakhtiar, MSc sebagai dosen
pembimbing I dan dosen pembimbing II, serta kepada Bapak Ir Ni Komang
Kutha Ardhana, MSc sebagai dosen penguji atas semua ilmu, nasihat, kesabaran,
motivasi, dan bimbingannya selama penulisan skripsi ini. Selain itu, Penulis juga
mengucapkan terimakasih kepada Kak Wirdania yang telah bersedia manjadi
tempat untuk bertanya, Pak Deni yang membantu menginstal software-software
yang diperlukan, dan tentunya kepada Mamah dan Bapak yang setiap hari selalu
mengingatkan dan mendoakan agar karya tulis ini dapat segera diselesaikan.

Semoga karya ilmiah ini dapat bermanfaat dan menjadi inspirasi bagi
penelitian-penelitian selanjutnya.

Bogor, November 2014
Putri Thamara

DAFTAR ISI
DAFTAR TABEL

viii

DAFTAR GAMBAR

viii

DAFTAR LAMPIRAN

viii

PENDAHULUAN


1

Latar Belakang

1

Tujuan Penelitian

1

TINJAUAN PUSTAKA
METODE

2
11

Sumber Data

11


Prosedur Analisis Data

11

HASIL DAN PEMBAHASAN

13

SIMPULAN DAN SARAN

19

Simpulan

19

Saran

19


DAFTAR PUSTAKA

20

LAMPIRAN

21

RIWAYAT HIDUP

31

DAFTAR TABEL
1 Klasifikasi kelompok
13
2 Deskripsi data pengenalan anggur
13
3 Proporsi total varians yang ditampilkan oleh dua komponen utama pertama15
4 Nilai perbedaan minimum matriks X terhadap matriks Y dari berbagai

kondisi dengan seluruh komponen utama
16
5 Nilai perbedaan minimum matriks X terhadap matriks Y dari berbagai
kondisi dengan dua komponen utama pertama
16
6 Ukuran kesesuaian matriks X terhadap Y dari berbagai kondisi dengan
seluruh komponen utama
17
7 Ukuran kesesuaian matriks X terhadap Y dari berbagai kondisi dengan
dua komponen utama pertama
17
8 Klasifikasi kelompok data asal tanpa pembakuan (I)
18
9 Klasifikasi kelompok data asal terkoreksi atau baku (II)
18
10 Klasifikasi kelompok menggunakan metode kernel (III)
18

DAFTAR GAMBAR
1

2
3
4

Ilustrasi pemetaan data ke ruang fitur
Konfigurasi AKUK primal dengan data asal tanpa pembakuan (I)
Konfigurasi AKUK primal dengan data asal terkoreksi atau baku (II)
Konfigurasi AKU Kernel dual dengan data asal baku (III)

6
14
14
15

DAFTAR LAMPIRAN
1 Data Pengenalan Anggur (Wine Recognition Data)
2 Data dua komponen utama pertama dari berbagai kondisi
3 Fungsi yang digunakan untuk memperoleh nilai perbedaan minimum
antarkonfigurasi
4 Fungsi yang digunakan untuk memperoleh matriks komponen utama
menggunakan metode kernel

21
25
29
30

PENDAHULUAN
Latar Belakang
Permasalahan yang sering muncul dalam penelitian ialah banyaknya peubah
yang terlibat sehingga terlalu kompleks untuk langsung diinterpretasikan. Oleh
karena itu, diperlukan suatu teknik untuk menyederhanakannya. Dalam statistika,
masalah semacam itu umumnya diselesaikan dengan menggunakan analisis
peubah ganda. Salah satu jenis analisis peubah ganda adalah Analisis Komponen
Utama (AKU), yaitu suatu analisis statistika yang digunakan untuk mereduksi
dimensi data berukuran besar dengan mempertahankan sebanyak mungkin
informasi yang terkandung pada data asalnya dengan membentuk peubah baru
yang tidak berkorelasi yang merupakan kombinasi linear dari peubah-peubah
asalnya dan beragam terurut. Peubah baru ini disebut dengan komponen utama.
Meskipun AKU sering dan baik digunakan untuk mereduksi dimensi data,
namun AKU juga masih memiliki keterbatasan. Keterbatasan yang paling
menonjol dari AKU adalah ketidakmampuannya dalam mengatasi masalah data
yang taklinear dan tak terpisah. Untuk itu ditemukan perluasan dari AKU, yaitu
AKU Kernel. Pada dasarnya, AKU merupakan AKU Kernel dengan fungsi kernel
polinom berderajat satu. Pada AKU Kernel ini, terlebih dahulu dilakukan
pemetaan data ke ruang fitur sehingga membentuk vektor-vektor baru di ruang
fitur. Hasil kali dalam dari vektor-vektor tersebut disebut dengan fungsi kernel.
AKU Kernel ini merupakan AKU yang diterapkan di ruang fitur.
Pada AKU Kernel, matriks komponen utama dapat diperoleh dari formula
primal dan formula dual. Namun pada fungsi kernel yang hasil pemetaan di ruang
fiturnya tidak diketahui, formula primal tidak dapat digunakan. Salah satu fungsi
kernel yang sering digunakan adalah fungsi kernel polinom. Untuk fungsi kernel
ini, hasil pemetaan di ruang fiturnya jelas, sehingga matriks komponen utama
dapat diperoleh melalui formula primalnya.
Bila peubah asal memiliki varians yang jauh berbeda akan menyebabkan
adanya peubah yang memberikan kontribusi varians yang dominan sebagai
penentu komponen utama. Salah satu upaya untuk mengendalikannya adalah
dengan melakukan pembakuan peubah. Dalam karya tulis ini, akan dilakukan
eksplorasi mengenai pengaruh pembakuan peubah yang dilakukan di ruang asal,
atau ruang fitur, atau keduanya (ruang asal dan ruang fitur) terhadap konfigurasi
yang terbentuk dan terhadap salah klasifikasi yang diperoleh.
Untuk menelusuri seberapa jauh berbeda, konfigurasi titik yang diperoleh
dari setiap pembakuan perlu dibandingkan. Salah satu teknik analisis yang
digunakan untuk membandingkan suatu konfigurasi terhadap konfigurasi yang
lainnya ialah Analisis Procrustes (Procrustes Analysis) sehingga menghasilkan
suatu ukuran kesesuaian. Selain itu, pengaruh pembakuan peubah juga akan
dilihat dari nilai salah klasifikasinya.
Tujuan Penelitian
Tujuan penelitian ini ialah menelusuri perbedaan hasil berbagai
kemungkinan pembakuan peubah dalam AKU Kernel, menentukan kemiripan
konfigurasi, serta menentukan nilai salah klasifikasinya.

2

TINJAUAN PUSTAKA
Nilai Eigen dan Vektor Eigen
Misalkan adalah suatu matriks
. Skalar disebut sebagai nilai eigen
atau nilai karakteristik dari jika terdapat suatu vektor taknol , sehingga
. Vektor disebut vektor eigen atau vektor karakteristik matriks yang
bersesuaian dengan .
(Leon 2014)
Nilai Singular
Misalkan adalah suatu matriks
. Nilai-nilai singular dari adalah
akar dari nilai eigen yang positif dari matriks
atau
.
(Leon 2014)
Teras
Misalkan Y ( ) adalah suatu matriks
. Teras (trace) dari matriks
Y atau ditulis tr Y merupakan jumlah elemen-elemen diagonal utama dari Y:
tr Y ∑
.
(Leon 2014)
Jarak Euclid antara
didefinisikan sebagai
(

Jarak Euclid
dan
dari matriks

)

√(

) (

) .

(Jolliffe 2002)

Analisis Komponen Utama
Analisis Komponen Utama (AKU) adalah analisis peubah ganda yang
paling tua dan sudah banyak digunakan. Analisis ini pertama kali diperkenalkan
oleh Pearson pada tahun 1901 kemudian oleh Hotelling pada tahun 1935
(SchÖlkopf dan Smola 2002). Ide pokok analisis ini ialah mereduksi dimensi data
berukuran besar dari data dengan p peubah yang saling berkorelasi dengan
mempertahankan sebanyak mungkin variasi yang terdapat pada data. Meskipun
dibutuhkan p komponen untuk menunjukkan keseluruhan variasi data, namun
seringkali variasi ini dapat diwakili oleh k komponen utama pertama, dengan
(Jollife 2002), sehingga data asal yang mengandung n objek dengan p
peubah dapat direduksi menjadi n objek dengan k komponen utama.
Misalkan adalah vektor dengan p peubah acak,
(
)
memunyai matriks kovarians Σ dengan nilai eigen
.
Misalkan kombinasi linear
memiliki varians terbesar, dengan
merupakan
vektor koefisien
. Kombinasi linear
dapat dituliskan sebagai
berikut

.
Kombinasi linear kedua,
, tidak berkorelasi dengan
. Kombinasi linear ini
memiliki varians terbesar kedua, dan seterusnya, sehingga kombinasi linear ke-k,
, memiliki varians maksimum ke-k dan tidak berkorelasi dengan

3

,…,

. Dengan demikian terdapat vektor bobot yang tidak diketahui
.
Misalkan X memiliki matriks kovarians dengan elemen
merupakan
kovarians antara peubah ke-i dan peubah ke-j dari X saat
dan varians peubah
ke-j saat
. Jika X memiliki nilai harapan E[X] maka kovarians X ialah
sebagai berikut
.
Misalkan
maka
]=
dengan varians sebagai berikut
(

[

])(

[

])

.
Untuk menentukan komponen utama pertama, pandang kombinasi linear
. Nilai
pertama
dan vektor
yang memaksimumkan
dapat terus membesar bila
dikalikan dengan suatu konstanta yang lebih
besar dari satu maka dibutuhkan batasan
, yaitu jumlah kuadrat elemen
sama dengan 1. Untuk komponen utama pertama yang ingin memaksimumkan
[
]
dengan kendala
dapat diselesaikan
melalui persamaan Lagrange berikut
dengan
adalah pengganda Lagrange, kemudian mencari titik kritis dari
persamaan Lagrange dapat dilakukan dengan cara mencari turunan pertama
terhadap sebagai berikut:

atau
(
)
dengan
merupakan matriks identitas berukuran
. Dengan demikian
adalah nilai eigen dari dan
merupakan vektor eigen yang bersesuaian. Untuk
dengan varians
menentukan vektor eigen yang memberikan kombinasi linear
terbesar, kuantitas yang akan dimaksimumkan ialah
.
maksimum maka haruslah
merupakan nilai
Dengan demikian agar
eigen terbesar dari matriks kovarians dan
merupakan vektor eigen yang
bersesuaian dengan nilai eigen terbesar dari .
Komponen utama kedua,
, memaksimumkan
dengan kendala
dan tidak berkorelasi dengan
, atau ekuivalen dengan syarat
menyatakan kovarians antara peubah
, dengan
dan peubah . Diperoleh
(1)

4

karena

maka

. Didefinisikan kembali fungsi Lagrange

dengan
dan adalah pengganda Lagrange, untuk mencari titik kritis dapat
diperoleh sebagai berikut
.
Jika persamaan (2) dikalikan dengan

(2)

didapatkan

Persamaan (1) menjadikan
dan karena
sehingga persamaan (2) dapat ditulis menjadi

.
maka haruslah

,

atau
(
)
merupakan persamaan eigen dari matriks . Dengan demikian merupakan nilai
eigen dan
merupakan vektor eigen yang bersesuaian. Untuk menentukan
vektor eigen yang memberikan kombinasi linear
dengan varians terbesar,
kuantitas yang akan dimaksimumkan ialah
.
Karena nilai eigen terbesar pertama merupakan varians dari komponen utama
pertama maka dipilih nilai eigen terbesar kedua dari matriks . Demikian juga
dengan vektor eigen
merupakan vektor eigen yang bersesuaian dengan nilai
eigen terbesar kedua .
Berdasarkan uraian sebelumnya, dapat ditunjukkan bahwa komponen utama
ketiga, keempat sampai ke-p, vektor koefisien
merupakan vektor
eigen yang bersesuaian dengan nilai eigen
, secara berturut-turut.
Secara umun, komponen utama ke-k dari X adalah
dan
]
untuk
, ,…,
dengan merupakan nilai eigen terbesar ke-k dan
adalah vektor eigen yang
bersesuaian.
Apabila varians antarpeubah memiliki perbedaan cukup besar akan
mengakibatkan salah satu peubah menjadi dominan dalam menentukan komponen
utama, maka biasanya digunakan matriks korelasi ρ. Bila peubah telah dibakukan
sebagai berikut
,





, ... ,



maka komponen utama dari
[
] adalah kombinasi linear dari p
peubah acak baku, yaitu
+
+...+
di mana i 1,2, ... , p .
Dalam kasus ini (
), (
), ... , (
) adalah pasangan nilai eigen


dan vektor eigen untuk matriks korelasi ρ
, dengan

diag(
) dan λ1 ≥ … ≥ λp > 0.






Apabila matriks kovarians populasi dan matriks korelasi dari populasi ρ
tidak diketahui, maka dapat diduga dengan matriks kovarians contoh S

dan

matriks

korelasi

contoh





dengan

5



(







) , dalam hal ini

adalah matriks data yang

sudah terkoreksi nilai tengahnya.

Formulasi primal dianalisis dengan
yang berukuran
Formulasi primal memiliki permasalahan persamaan eigen sebagai berikut

.

Formulasi primal sangat baik digunakan saat ukuran
, sehingga dapat
meringkas dalam menyelesaikan masalah persamaan eigen. Selain formulasi
primal dijelaskan pula tentang formulasi dual. Formulasi dual dianalisis dengan

yang berukuran
dalam amatan dapat menjadi sangat besar.
Formulasi dual memiliki permasalahan persamaan eigen sebagai berikut
dengan adalah nilai eigen dan
. Jika persamaan ini dikalikan

adalah vektor eigen yang bersesuaian dengan
dari kiri maka akan diperoleh

proporsional dengan
, atau dilambangkan dengan
, yaitu sebuah
vektor eigen dari matriks kovarians S dengan nilai eigen . Dalam hal ini nilai
eigen yang diperoleh dari kedua formulasi adalah sama-sama , dan dengan
mengasumsikan vektor eigen adalah vektor satuan (
) diperoleh
.



dan
berpangkat
,
dan

memunyai r nilai eigen taknol
yang sama dan bahwa vektor
⁄√
⁄√
eigennya saling terkait yaitu
dan
.
Total varians yang dijelaskan oleh komponen utama adalah ∑
yang
merupakan total varians peubah asal, sehingga proporsi total varians dari k
komponen utama pertama (Pk) ialah
di mana k ≤ p .
Jika

Analisis Komponen Utama Kernel
Analisis Komponen Utama Kernel (AKUK) adalah suatu analisis yang
dapat menunjukkan bentuk taklinear dari AKU. Dengan menggunakan fungsi
kernel dapat diperoleh komponen utama secara lebih efisien dalam dimensi yang
lebih tinggi di ruang fitur. Dalam AKUK dikenal kernel trick, yaitu suatu cara
yang memberikan kemudahan karena hanya cukup mengetahui fungsi kernel yang
digunakan dan tidak perlu mengetahui wujud dari fungsi pemetaan taklinearnya.
Misalkan dinotasikan pemetaan Φ dari ruang input ke ruang fitur dengan
Φ: →Ƒ
x
→ Φ(x) Ƒ

6

Gambar 1 Ilustrasi pemetaan data ke ruang fitur
di mana data asal berada dalam ruang dan fitur dalam Ƒ. Permasalahan muncul
karena bentuk konkret dan dimensi dari Ƒ tidak semua diketahui. Namun
permasalahan tersebut dapat diselesaikan menggunakan kernel trick.
Hasil kali dalam dari pemetaan data merupakan fungsi kernel. Kernel adalah
sebuah fungsi k di mana
memenuhi
.
(Shen 2007)
k( , )
Dimensi Ƒ dapat memunyai perubahan dimensi yang besar dan mungkin tak
terbatas (Shen 007). Pemetaan Φ mungkin taklinear dan tak dapat dijelaskan
secara eksplisit. Matriks data hasil pemetaan di ruang fitur adalah sebagai berikut :
Φ

.

(
)
Matriks Φ berisi n objek dan q peubah, di mana q adalah banyaknya peubah
di ruang fitur dan nilainya bisa sangat besar atau tak terbatas.
Asumsikan bahwa data dalam ruang fitur memunyai rata-rata nol, yaitu

0 , sehingga matriks kovarians memiliki bentuk

S
yang bersesuaian dengan formulasi primal sebagai berikut
.
Untuk formulasi dual yang bersesuaian diperoleh
,
di mana digunakan kembali simbol
sebagai nilai eigen dan vektor eigen
secara berturut-turut. Seperti pada AKU, nilai eigen taknol untuk formulasi primal
dan dual adalah sama dan vektor eigen dihubungkan dengan
⁄√
⁄√
dan
.
Dengan mengganti hasil kali dalam
pada
dengan sebuah
fungsi kernel k( , ) yang berasal dari pemetaan , diperoleh
,
dengan
sebagai berikut

(
adalah matriks berukuran

)
, dengan persamaan nilai eigen

7

.
Permasalahan nilai eigen tersebut memberikan semua solusi
dari vektor
eigen dan
dari nilai eigen, sehingga dalam hal ini
⁄√
⁄√
dan
.
Pada kenyataannya tidak dapat diasumsikan bahwa data pada ruang fitur
sudah terkoreksi terhadap nilai tengahnya. Oleh karena itu agar matriks
terkoreksi nilai tengah, digunakan
di mana
.

Untuk mendapatkan skor komponen utama kernel dari permasalahan nilai
eigen, proyeksikan pemetaan x atas vektor eigen primal
⁄√
⁄√
⁄√
⁄√
.
Berikut merupakan tiga fungsi kernel yang biasa digunakan


Gauss : k(




Polinom : k(
Sigmoid : k(



exp(

(
tanh(k(



,

) ,
) + θ) .

Sebelum menggunakan fungsi kernel, harus ditentukan terlebih dahulu
fungsi k( , ) untuk memastikan bahwa fungsi tersebut adalah fungsi kernel
untuk beberapa ruang fitur. Oleh karena itu, perlu diketahui beberapa hal yang
berhubungan dengan fungsi kernel, yaitu:
1. Fungsi kernel harus simetrik
k( , ) .
( , )
2. Memenuhi ketaksamaan Cauchy-Schwarz


‖ ‖


.

Misalkan pemetaan ke ruang fitur diberikan sebagai berikut
).
: x = ( , ) → (x) = (

Pemetaan mengambil data dari ruang input dua dimensi dan memetakan
ke ruang fitur tiga dimensi. Komposisi dari pemetan fitur dengan hasil kali dalam
pada ruang fitur dapat dievaluasi sebagai berikut:
)
(


.

Karenanya, fungsi
k(x, )

8

merupakan sebuah fungsi kernel dengan ruang fitur yang bersesuaian. Hal tersebut
berarti dapat menghitung hasil kali dalam antara proyeksi dari dua titik ke dalam
ruang fitur tanpa mengevaluasi koordinatnya secara eksplisit.
Dekomposisi Nilai Singular (DNS)
Setiap matriks
yang berdimensi
dapat dinyatakan sebagai bentuk
Dekomposisi Nilai Singular (DNS) sebagai berikut:
(Jolliffe 2002), di mana dan masing-masing dengan kolom ortonormal,
merupakan pangkat matriks dengan
.
, dengan
merupakan matriks identitas berukuran .
(√ √
√ ) dengan
dan √
merupakan nilai singular dari
matriks .
adalah matriks yang kolom-kolomnya terdiri
Matriks
atas vektor eigen
yang ortonormal dan berpadanan dengan nilai eigen taknol i
dari matriks
dalam bentuk
(







).

adalah matriks yang kolom-kolomnya
Matriks
merupakan vektor eigen yang ortonormal dan berpadanan dengan nilai eigen
taknol i dari matriks
dalam bentuk
(







).

Dekomposisi Nilai Singular Bentuk Lengkap (DNSBL)
Setiap matriks
berdimensi
dapat dinyatakan sebagai bentuk
Dekomposisi Nilai Singular Bentuk Lengkap (DNSBL) sebagai berikut:
di mana
dengan adalah matriks identitas berukuran n,
3)
dengan adalah matriks identitas berukuran , dan
(√ √
√ )
.

Dalam hal ini merupakan pangkat matriks dengan
. Matriks
(
) adalah matriks yang kolom-kolomnya terdiri atas
vektor eigen
yang ortonormal. Vektor eigen
berpadanan dengan nilai eigen
taknol (i = 1, 2, r) seperti pada DNS matriks Y dan vektor eigen nol (i
adalah
r+1, r+2, , ) dari matriks
. Matriks
matriks yang kolom-kolomnya terdiri atas vektor eigen
yang ortonormal.
Vektor eigen
berpadanan dengan nilai eigen taknol (i = 1, 2, r) seperti
pada DNS matriks Y dan vektor eigen nol (i r+1, r+2, , ) dari matriks
. Vektor-vektor eigen dan yang berpadanan dengan nilai eigen taknol
memiliki keterkaitan seperti pada DNS, yaitu


atau



.

9

Analisis Procrustes
Misalkan adalah matriks berukuran
dan berukuran
yang
masing-masing merupakan representasi konfigurasi yang akan dibandingkan.
Koordinat titik ke- pada ruang Euclid diberikan oleh nilai-nilai pada baris kematriks. Konfigurasi pertama berada pada ruang berdimensi dan titik kememiliki koordinat (
), sedangkan konfigurasi kedua berada pada
ruang berdimensi dan titik ke- memiliki koordinat (
). Jika
maka konfigurasi kedua berada dalam subruang dari ruang berdimensi .
Perbedaan dimensi ruang ini dapat diselesaikan dengan memasangkan
kolom nol di kolom mana saja termasuk memasangkan
di kolom terakhir
dari sehingga menjadi matriks berukuran
(Siswadi et al. 2012). Dengan
demikian, tanpa mengurangi keumuman dapat diasumsikan bahwa
.
Untuk menentukan nilai perbedaan dari konfigurasi
dan
, jarak
Procrustes menggunakan jumlah kuadrat jarak antartitik yang bersesuaian, yaitu:
∑ ∑(

)

.
(3)
Nilai perbedaan minimum dihitung dengan menggunakan tiga transformasi
geometris yaitu translasi, rotasi, dan dilasi yang diberikan oleh Bakhtiar dan
Siswadi (2011).
1. Translasi
Misalkan
( ), maka sentroid kolom dari matriks dinotasikan sebagai


,
.
, di mana
Dalam analisis Procrustes, translasi diartikan sebagai proses pemindahan
seluruh titik dengan jarak yang tetap dan arah yang sama.
∑ ∑ [(
) (
)]
∑ ∑ [(
) (
)] (
)
∑ (
) .
Penguraian persamaan (4) menghasilkan

(4)

∑ (
) .
dan
merupakan konfigurasi dan setelah ditranslasi.
dan
masing-masing adalah sentroid kolom dari dan ,
merupakan vektor kolom
berukuran
yang semua unsurnya bernilai 1, sedangkan
merupakan jarak
kuadrat dari kedua sentroid kolom dan . Penyesuaian optimal dengan translasi
dapat dilakukan dengan menghimpitkan sentroid kolom
dan
sehingga
. Dengan demikian, nilai perbedaan minimum dari konfigurasi dan
setelah dilakukan penyesuaian optimal dengan translasi ialah
∑ ∑ [(
) (
)] .
2. Rotasi
Rotasi merupakan proses pemindahan seluruh konfigurasi titik dengan sudut
yang tetap tanpa mengubah jarak setiap titik terhadap sentroidnya. Rotasi
di mana

10

terhadap dilakukan dengan mengalikan matriks dengan matriks ortogonal ,
dengan
.
Nilai perbedaan minimum dari konfigurasi
dan
setelah dilakukan
penyesuaian dengan rotasi ialah
.
Berdasarkan persamaan (3), nilai perbedaan pada penyesuaian dengan rotasi
dapat dituliskan sebagai
.
Nilai
yang maksimum akan meminimumkan
. Jadi,
harus dipilih matriks ortogonal yang memaksimumkan
. adalah
matriks ortogonal yang diperoleh dari Dekomposisi Nilai Singular Bentuk
Lengkap (DNSBL) matriks
. Jika DNSBL matriks
adalah
,
maka
Q
.
Dengan menggunakan matriks Q tersebut, nilai perbedaan minimum dari
konfigurasi dan setelah dilakukan penyesuaian optimal dengan rotasi ialah
.
3. Dilasi
Dilasi merupakan proses penskalaan data melalui pembesaran/pengecilan
jarak setiap titik dalam konfigurasi terhadap sentroidnya. Dilasi terhadap
dilakukan dengan cara mengalikan konfigurasi dengan suatu skalar . Nilai
perbedaan minimum dari dua konfigurasi dan setelah dilakukan penyesuaian
dengan dilasi ialah
.
Berdasarkan persamaan (3), nilai perbedaan pada penyesuaian dengan dilasi
dapat dituliskan sebagai
.
(5)
Persamaan (5) merupakan bentuk fungsi kuadrat dengan variabel sehingga
, turunan pertamanya harus sama dengan
untuk meminimumkan nilai
nol dan turunan keduanya lebih besar dari nol.

(

)

(6)
8)
.

minimum pada saat memiliki nilai seperti pada persamaan (6).
Dengan menyubstitusikan nilai , nilai perbedaan minimum setelah penyesuaian
optimal dengan dilasi menjadi
(

)

.

11

Dengan menggunakan aljabar sederhana, secara analitik telah dibuktikan
bahwa dalam analisis Procrustes, urutan pengerjaan yang menghasilkan jarak
paling minimum adalah translasi-rotasi-dilasi. Bukti dapat dilihat di Bakhtiar dan
Siswadi (2011).
Ukuran kesesuaian analisis Procrustes diberikan sebagai berikut
merupakan nilai perbedaan minimum translasi, rotasi dan
dengan
dilasi dari matriks X terhadap matriks Y.

METODE
Sumber Data
Data yang digunakan dalam karya ilmiah ini adalah data sekunder yang
diperoleh dari internet, yaitu data pengenalan anggur (Forina 1991). Data ini
adalah hasil analisis kimia dari anggur yang tumbuh di daerah yang sama di Italia,
tetapi berasal dari tiga budidaya/kultivar yang berbeda. Data tersebut terdiri atas
178 objek dan 13 peubah yaitu kadar alkohol (alcohol), kadar asam malat (malic
acid), banyaknya abu (ash), banyaknya alkali pada abu (alcanity of ash), kadar
magnesium (magnesium), kadar fenol (total phenols), kadar flavonoid
(flavonoids), kadar fenol bukan flavonoid (nonflavonoids phenols), kadar
proanthosianin (proanthocyanins), intensitas warna (color intensity), warna
berdasarkan tingkat kecerahannya (hue), anggur yang diencerkan pada
OD280/OD315 (OD280/OD315 of diluted wines), dan kadar prolina (proline).
Dari 178 objek terbagi ke dalam 3 kelompok yaitu kelompok anggur yang berasal
dari budidaya 1, budidaya 2, dan budidaya 3 yang banyaknya objek dari tiap
kelompok berturut-turut adalah 59, 71, dan 48 objek.
Prosedur Analisis Data
Pada karya tulis ini, matriks data di ruang asal yang bedimensi 178 13
diperluas menjadi matriks data berdimensi 178 105 di ruang fitur. Perluasan ini
didasarkan pada pemetaan kernel polinom berderajat 2 dengan parameter
.
Hal tersebut menyebabkan matriks data hasil pemetaan di ruang fitur merupakan
komposisi dari bentuk konstanta, linear, cross product, dan kuadratik dari peubahpeubah asalnya.
Secara umum, matriks berukuran 178 105 tersebut dibakukan, selanjutnya
dicari model primalnya (bersesuaian dengan matriks korelasi di ruang fitur)
kemudian didapatkan nilai eigen dan vektor eigen yang merupakan solusi dari
persamaan nilai eigennya. Kemudian untuk menggambarkan konfigurasi, diambil
dua komponen utama yang diperoleh dari dua nilai eigen terbesar pertama.
Eksplorasi dilakukan terhadap tiga kondisi, yaitu:
I. Matriks data asli dipetakan ke ruang fitur kemudian dibakukan di ruang
fitur. Selanjutnya matriks data baku di ruang fitur dikerjakan
menggunakan AKU.

12

II. Matriks data asli terkoreksi atau baku dipetakan ke ruang fitur. Setelah itu
hasil pemetaan di ruang fitur dibakukan. Selanjutnya matriks data baku di
ruang fitur dikerjakan menggunakan AKU.
(Catatan: Matriks data hasil pembakuan di ruang fitur baik pada matriks
data asal terkoreksi maupun matriks data asal baku adalah sama).
III. Matriks data asal yang sudah baku dikerjakan menggunakan metode
Kernel dengan fungsi kernel polinom berderajat 2 dan parameter
.
Berikut adalah tahapan yang dilakukan untuk mengerjakan menggunakan
metode kernel:
1. Menentukan fungsi kernel yang akan digunakan, dalam hal ini fungsi
kernel polinom berderajat 2 dengan parameter
. Kemudian
menghitung matriks kernel yang elemen-elemennya adalah fungsi kernel
= k(
=(
) yang merupakan hasil kali dalam dari
vektor-vektor di ruang fitur.
2. Mengoreksi matriks kernel dengan
di mana
.


3. Menyelesaikan permasalahan nilai eigen dari matriks
dengan
persamaan
. Dua vektor eigen yang bersesuaian
dengan dua nilai eigen terbesar pertama kemudian dijadikan sebagai
koefisien-koefisien pada komponen utama 1 dan komponen utama 2.
4. Untuk menemukan skor komponen utama kernel dari permasalahan nilai
eigen, proyeksikan pemetaan x atas vektor eigen primal
/√
,

di mana i 1, 2 .
Setelah diperoleh matriks-matriks komponen utamanya, kemudian
divisualisasikan menjadi konfigurasi atau plot pencaran menggunakan software
Minitab. Dari konfigurasi-konfigurasi tersebut akan diperoleh gambaran
bagaimana perbedaan plot pencaran dari masing-masing pembakuan secara visual.
Untuk memperoleh ukuran kesesuaiannya, pertama-tama dicari terlebih
dahulu nilai perbedaan minimum antar konfigurasi dengan melakukan
. Selanjutnya adalah mencari
penyesuaian translasi, rotasi, dan dilasi
ukuran kesesuaian (goodness of fit) dari analisis Procrustes yaitu
)

100% .

Salah satu tolok ukur dalam menentukan keberhasilan suatu klasifikasi
adalah dengan melihat nilai salah klasifikasinya (misclassification error).
Semakin kecil nilai salah klasifikasinya maka semakin baik. Pengklasifikasian
yang dilakukan dalam karya tulis ini menggunakan jarak Euclid untuk ruang
dimensi dua dengan menghitung kuadrat jarak terkecil antara objek baru
( ,
) menggunakan dua komponen utama pertama terhadap rataan dari setiap
kelompok, yaitu rataan kelompok 1 ( ̅ ), rataan kelompok 2 ( ̅ ), dan rataan
kelompok 3 ( ̅ ) sebagai berikut
.
̅ di mana k =
̅
̅
Objek
masuk ke dalam kelompok k jika
.
Hasil klasifikasi kelompok yang diperoleh akan disajikan dalam tabel
seperti pada Tabel 1.

13

Tabel 1 Klasifikasi kelompok
Kelompok Prediksi (j)
1
2
3

Kelompok asal (k)

Total

1
2
3
Total
Salah Klasifikasi (SK)

(



)

, dengan

banyaknya

anggota kelompok k yang diklasifikasikan ke dalam kelompok j.

HASIL DAN PEMBAHASAN
Data yang digunakan dalam karya ilmiah ini adalah data sekunder yang
diperoleh dari internet, yaitu data pengenalan anggur (Forina 1991). Data ini
adalah hasil analisis kimia dari anggur yang tumbuh di daerah yang sama di Italia,
tetapi berasal dari tiga budidaya/kultivar yang berbeda. Data tersebut terdiri atas
178 objek dan 13 peubah yaitu kadar alkohol (alcohol), kadar asam malat (malic
acid), banyaknya abu (ash), banyaknya alkali pada abu (alcanity of ash), kadar
magnesium (magnesium), kadar fenol (total phenols), kadar flavonoid
(flavonoids), kadar fenol bukan flavonoid (nonflavonoids phenols), kadar
proanthosianin (proanthocyanins), intensitas warna (color intensity), warna
berdasarkan tingkat kecerahannya (hue), anggur yang diencerkan pada
OD280/OD315 (OD280/OD315 of diluted wines), dan kadar prolina (proline).
Dari 178 objek terbagi ke dalam 3 kelompok yaitu kelompok anggur yang berasal
dari budidaya 1, budidaya 2, dan budidaya 3 yang banyaknya objek dari tiap
kelompok berturut-turut adalah 59, 71, dan 48 objek.
Berikut ini ditampilkan tabel yang berisi deskripsi data pengenalan anggur
secara ringkas. Tabel tersebut menggambarkan nilai minimum, rataan, nilai
maksimum, dan simpangan baku (SB) dari setiap peubah.
Tabel 2 Deskripsi data pengenalan anggur
Peubah
Min
Rataan
Alcohol
11.030
13.004
Malic Acid
0.740
2.342
Ash
1.360
2.366
Alcanity of Ash
10.000
19.439
Magnesium
70.000
99.714
Total Phenols
0.128
2.289
Flavanoids
0.099
2.024
Nonflavanoids
0.130
0.363
Phenols
0.410
1.591
Proanthocyanins
1.280
5.058

Maks
14.830
5.800
3.230
30.000
162.000
3.880
5.080
0.660
3.580
13.000

SB
0.809
1.119
0.274
3.414
14.279
0.642
1.007
0.124
0.572
2.318

14

Color Intensity
OD280/OD315 of
Diluted Wines
Proline

0.480
1.270

0.958
2.612

1.710
4.000

0.229
0.710

278.000

746.893

1680.000

314.908

Komponen Utama 2 (proporsi λ_2 = 18,0016%)

Tabel tersebut memberikan informasi bahwa peubah proline memiliki
simpangan baku paling besar. Simpangan baku antara peubah tersebut dengan
peubah yang lain memiliki perbedaan yang cukup besar. Sehingga peubah tersebut
akan dominan dalam menentukan komponen utama. Rata-rata dan SB pada tabel
tersebut akan digunakan untuk pembakuan pada data asal.
Dalam penelitian ini, fungsi kernel yang digunakan adalah fungsi kernel
polinom berderajat 2. Alasan pemilihan fungsi kernel tersebut karena hasil
pemetaan di ruang fiturnya diketahui dengan jelas sehingga dapat dilakukan
eksplorasi pembakuan peubah di ruang fiturnya, yang selanjutnya dapat dijadikan
sebagai pembanding dengan hasil yang diperoleh melalui metode kernel untuk
melihat seberapa jauh berbeda, karena dengan menggunakan metode kernel
artinya nilai eigen dan vektor eigen hanya dapat diperoleh dari matriks yang setara
dengan matriks kovarians ruang fiturnya, tidak dari matriks korelasinya.
Gambar 2 dan 3 di bawah ini merupakan visualisasi konfigurasi atau plot
pencar dari analisis terhadap data asal tanpa pembakuan dan data asal terkoreksi
atau baku yang diperluas dan dibakukan di ruang fiturnya.
Data Asal Tanpa Pembakuan
Kelompok
1
2
3

10

5

0

-5

-10
-10
-5
0
5
10
Komponen Utama 1 (proporsi λ_1 = 37.2239%)

15

Gambar 2 Konfigurasi AKUK primal dengan data asal tanpa pembakuan (I)
Komponen Utama 2 (proporsi λ_2 = 11.4957%)

Data Asal Terkoreksi atau Baku
15

Kelompok
1
2
3

10

5

0

-5
-10

-5
0
5
Komponen Utama 1 (proporsi λ_1 = 12.8488%)

10

Gambar 3 Konfigurasi AKUK primal dengan data asal terkoreksi atau baku (II)

15

Komponen Utama 2 (proporsi λ_2 = 10.7961%)

Konfigurasi yang diperoleh dengan menggunakan metode kernel dapat
dilihat pada Gambar 4.
Metode Kernel
20

Kelompok
1
2
3

15
10
5
0
-5
-10
-15
-15

-10
-5
0
5
10
Komponen Utama 1 (proporsi λ_1 = 12.7136%)

15

Gambar 4 Konfigurasi AKUK dual dengan data asal baku (III)
Berikut ini adalah tabel yang memberikan informasi mengenai proporsi
varians yang ditampilkan oleh dua komponen utama pertama.
Tabel 3 Proporsi total varians yang ditampilkan oleh dua komponen utama
pertama
KU 1
KU 2
Total
I
.
.7
0
II
.
0
III
7 .07
7 .
.
Nilai eigen yang diperoleh dari matriks tanpa faktor pembagi

Proporsi
55.2255%
24.3445%
23.5097%

Gambar 2 dan Gambar 3 memberikan gambaran konfigurasi dari data asal
tanpa pembakuan dan terkoreksi atau baku yang dikerjakan menggunakan AKU
Kernel dalam formula primal baku atau setara dengan matriks korelasi di ruang
fiturnya.
Berdasarkan Tabel 3, saat data asal tidak dibakukan, proporsi nilai eigen
yang ditampilkan adalah 55.2255% sedangkan proporsi nilai eigen yang
ditampilkan saat data asal dibakukan adalah sebesar 24.3445%.
Gambar 4 merupakan visualisasi dari data asal baku yang dikerjakan
menggunakan metode kernel atau sama saja dengan AKU Kernel dalam formula
dual di ruang fiturnya. Fungsi kernel yang digunakan adalah fungsi kernel
polinom derajat 2 dengan parameter
Jika dibandingkan dengan kedua
konfigurasi sebelumnya, Gambar 4 ini memiliki pola pencaran data yang relatif
mirip dengan Gambar 3. Namun yang membedakan ialah Gambar 4 ini
merepresentasikan dua komponen utama pertama yang diperoleh dari matriks
kovarians karena data di ruang fiturnya hanya terkoreksi nilai tengah, sedangkan
pada Gambar 3 merepresentasikan dua komponen utama pertama dari matriks
korelasinya karena dilakukan pembakuan peubah di ruang fiturnya. Proporsi nilai
eigen yang ditampilkan saat data asal baku dikerjakan menggunakan metode
kernel dapat dilihat pada Tabel 3, yaitu sebesar 23.5097%.

16

Dalam karya tulis ini, setiap konfigurasi titik yang terbentuk dibandingkan
menggunakan analisis Procrustes. Sebelum ditemukan ukuran kemiripannya,
dicari terlebih dahulu nilai perbedaan minimum antar konfigurasi dengan
melakukan penyesuaian konfigurasi dari dua konfigurasi yang akan dibandingkan.
Penyesuaian tersebut diawali dengan penyesuaian translasi, rotasi, kemudian
dilasi.
Berikut ini diberikan tabel-tabel yang berisi informasi mengenai nilai
perbedaan minimum dari matriks seluruh komponen utama dan dua komponen
utama pertamanya.
Tabel 4 Nilai perbedaan minimum matriks X terhadap matriks Y dari berbagai
kondisi dengan seluruh komponen utama
Y
I
II
III
I
0
10488
10454
II
10488
0
135.73
X
III
19985
259.48
0
Namun pada kenyataannya, representasi komponen utama yang dapat
digambarkan umumnya hanya dua atau tiga saja. Dalam karya ilmiah ini,
konfigurasi hanya digambarkan oleh dua komponen utama pertama. Nilai
perbedaan minimum yang digambarkan oleh dua komponen utama pertama
ditampilkan dalam tabel di bawah ini.
Tabel 5 Nilai perbedaan minimum matriks X terhadap matriks Y dari berbagai
kondisi dengan dua komponen utama pertama
Y
I
II
III
I
0
4620.9
4687
II
2037
0
108.5201
X
III
3814.5
200.3489
0
Tabel 4 dan 5 memberikan informasi mengenai nilai perbedaan minimum
antar konfigurasi. Dalam hal ini, semakin kecil nilai perbedaan minimum dan
semakin besar matriks pembagi yang bersesuaian maka dapat dikatakan antar
konfigurasi tersebut semakin mirip.
Pada perbandingan seluruh komponen utama, konfigurasi tanpa pembakuan
memiliki nilai perbedaan minimum sebesar 10488 dan 10454 terhadap konfigurasi
terkoreksi atau baku dan kernel. Konfigurasi terkoreksi atau baku memiliki nilai
perbedaan minimum sebesar 10488 dan 135.73 terhadap konfigurasi tanpa
pembakuan dan kernel. Sedangkan konfigurasi kernel memiliki nilai perbedaan
minimum sebesar 19985 dan 259.48 terhadap konfigurasi tanpa pembakuan dan
terkoreksi atau baku.
Pada perbandingan dua komponen utama pertama, konfigurasi tanpa
pembakuan memiliki nilai perbedaan minimum sebesar 4620.9 dan 4687 terhadap
konfigurasi terkoreksi atau baku dan kernel. Konfigurasi terkoreksi atau baku
memiliki nilai perbedaan minimum sebesar 2037 dan 108.5201 terhadap
konfigurasi tanpa pembakuan dan kernel. Sedangkan konfigurasi kernel memiliki

17

nilai perbedaan minimum sebesar 3814.5 dan 200.3489 terhadap konfigurasi tanpa
pembakuan dan terkoreksi atau baku.
Tabel 6 dan Tabel 7 menunjukkan ukuran kesesuaian Procrustes. Ukuran
kesesuaian memperlihatkan seberapa besar kemiripan antara dua konfigurasi.
Dalam hal ini, jika ukuran kesesuaian semakin besar artinya konfigurasikonfigurasi yang dibandingkan semakin mirip.
Berdasarkan pada penelitian ini, jika dua matriks yang dibandingkan telah
terkoreksi terhadap rataan kolomnya atau dengan kata lain rataan kolomnya
menjadi nol maka ukuran kesesuaian Procrustes yang diperoleh adalah simetrik,
artinya ukuran kesesuaian matriks X terhadap matrik Y sama dengan matriks Y
terhadap matriks X. Setelah ditelusuri melalui sejumlah percobaan ternyata
kesimetrikan ini terjadi jika matriks yang dianggap tetap adalah matriks yang
sudah ditranslasikan. Sedangkan matriks yang menyesuaikan telah melalui proses
translasi saat mencari nilai perbedaan minimumnya.
Tabel 6 Ukuran kesesuaian matriks X dan Y dari berbagai kondisi dengan seluruh
komponen utama
Y
I
II
III
I
100%
43.02%
43.21%
II
43.02%
100%
99.26%
X
III
43.21%
99.26%
100%
Tabel 7 Ukuran kesesuaian matriks X dan Y dari berbagai kondisi dengan dua
komponen utama pertama
Y
I
II
III
I
100%
54.54%
53.89%
II
54.54%
100%
97.58%
X
III
53.89%
97.58%
100%
Dari Tabel 6 dan Tabel 7 dapat dilihat bahwa ukuran kesesuaian antar
konfigurasi yang sama bernilai 100%. Semakin mendekati 100% maka semakin
mirip. Pada ukuran kesesuaian dari seluruh komponen utama, yang paling
mendekati 100% adalah ukuran kemiripan untuk pasangan konfigurasi dengan
pembakuan di ruang asal dan ruang fiturnya (II) dengan konfigurasi yang
diperoleh menggunakan metode kernel (III), yaitu sebesar 99.26%. Begitu pun
pada ukuran kemiripan dari dua komponen utama pertama, yang mendekati nilai
100% adalah pasangan konfigurasi antara primal terkoreksi atau baku dengan
konfigurasi yang diperoleh dari metode kernel, yaitu sebesar 97.58%.
Dengan menggunakan metode kernel artinya nilai eigen dan vektor eigen
pembentuk komponen utama hanya dapat diperoleh dari matriks kernel terkoreksi
(dual terkoreksi) atau setara dengan yang diperoleh dari AKU kovarians di ruang
fitur. Dengan demikian, eksplorasi ini juga dapat memberikan gambaran seberapa
besar data baku yang dikerjakan menggunakan metode kernel dapat
menggambarkan data baku yang dikerjakan menggunakan AKU korelasi di ruang
fitur. Dengan menggunakan data pengenalan anggur, fungsi kernel polinom
derajat 2, dan parameter
sebesar 99.26% metode kernel dapat

18

menggambarkan data baku yang dikerjakan menggunakan AKU korelasi di ruang
fitur. Nilai persentase tersebut menggambarkan keseluruhan komponen utama.
Sedangkan untuk matriks komponen utama yang sudah tereduksi atau dua
komponen utama pertamanya saja, metode kernel menggambarkan sebesar
97.58% AKU korelasi di ruang fitur.
Salah satu tolok ukur untuk melihat keberhasilan dalam menggunakan AKU
Kernel adalah terpisahnya objek ke dalam kelompok aslinya. Oleh karena itu,
untuk melihat pembakuan mana yang paling baik, dicari nilai salah klasifikasinya.
Tabel 8 Klasifikasi kelompok data asal tanpa pembakuan (I)
Kelompok Prediksi
Kelompok asal
1
2
3
1
56
3
0
2
5
64
2
3
0
1
47
Total
61
68
49
Salah klasifikasi = 6.18%
Tabel 9 Klasifikasi kelompok data asal terkoreksi atau baku (II)
Kelompok Prediksi
Kelompok asal
1
2
3
1
46
13
0
2
2
68
1
3
0
4
44
Total
48
85
45
Salah klasifikasi = 12.36%
Tabel 11 Klasifikasi kelompok menggunakan metode kernel (III)
Kelompok Prediksi
Kelompok asal
1
2
3
1
44
15
0
2
1
69
1
3
0
2
46
Total
45
86
47
Salah klasifikasi = 10.67%

Total
59
71
48

178

Total
59
71
48
178

Total
59
71
48
178

Kemiripan konfigurasi yang ditunjukkan oleh Gambar 3 (kondisi II) dan
Gambar 4 (kondisi III) yang memiliki kemiripan sebesar 97.58% tercermin pula
pada nilai salah klasifikasi yang relatif mirip, yaitu sebesar 12.36% dan 10.67%.
Kemiripan nilai salah klasifikasi tersebut memperlihatkan bahwa dengan
melakukan pembakuan peubah di ruang asal (sebelum transformasi) dan
pembakuan peubah di ruang fitur atau terkoreksi nilai tengah di ruang fitur akan
menghasilkan nilai klasifikasi yang relatif mirip. Hal tersebut terjadi karena pada
kondisi III sebenarnya terjadi pembakuan peubah sebagian, sehingga ada beberapa
peubah yang sama dengan hasil pembakuan di ruang fiturnya.

19

SIMPULAN DAN SARAN
Simpulan
Eksplorasi pembakuan peubah dalam Analisis Komponen Utama (AKU)
Kernel menggunakan data pengenalan anggur (wine recognition) memberikan
gambaran bahwa terdapat perbedaan hasil kapan pembakuan dilakukan terhadap
konfigurasi dan salah klasifikasi.
Perbedaan hasil pembakuan peubah tercermin dari ukuran kemiripan dan
nilai salah klasifikasinya. Kemiripan antara konfigurasi yang dilakukan
pembakuan di ruang asal dan ruang fiturnya (II) terhadap konfigurasi yang
pembakuannya dilakukan di ruang asal dan hanya terkoreksi nilai tengah di ruang
fiturnya (III) adalah sebesar 97.58%. Kemiripan tersebut tercermin pula pada nilai
salah klasifikasinya yang relatif mirip, yaitu 12.36% dan 10.67%. Kemiripan
antara konfigurasi yang dilakukan pembakuan di ruang asal dan ruang fiturnya (II)
terhadap konfigurasi yang pembakuannya hanya dilakukan di ruang fiturnya (I)
adalah sebesar 54.54%. Kemiripan yang hanya 54.54% tersebut tercermin pula
pada nilai salah klasifikasinya yang relatif berbeda, yaitu 12.36% dan 6.18%.

Saran
Eksplorasi pembakuan peubah hanya dapat dilakukan pada AKU Kernel
dengan fungsi kernel yang hasil pemetaan di ruang fiturnya diketahui, yaitu fungsi
kernel polinom. Pada penelitian selanjutnya, diharapkan dapat melakukan
pembakuan peubah pada fungsi kernel secara umum.
Ukuran kesesuaian Procrustes yang diperoleh pada penelitian ini bersifat
simetrik. Menurut penelitian ini, kesimetrikan tersebut terjadi jika matriks yang
dianggap tetap adalah matriks yang sudah ditranslasikan. Pada penelitian
selanjutnya diharapkan dapat menunjukkan kesimetrikannya melalui perhitungan
yang lebih jelas.

DAFTAR PUSTAKA
Bakhtiar T, Siswadi. 2011. Orthogonal Procrustes Analysis: Its Transformation
Arrangement and Minimal Distance. International Journal of Applied
Mathematics and Statistics 20:16  24.
Forina M. 1991. Wine Recognition Data. [internet]. Tersedia pada:
http://archive.ics.uci.edu/ml/machine-learning-databases/wine/wine.data.
Jolliffe IT. 2002. Principal Component Analysis.
New York (US):
Springer-Verlag.
Leon SJ. 2014. Linear Algebra with Application. 8th Ed. Edinburg Gate (UK):
Pearson.
SchÖlkopf B, Smola AJ. 2002. Learning with Kernels. London (UK): The MIT
Press.
Shen Y. 2007. Outlier Detection Using the Smallest Kernel Principal Component.
[Disertasi]. Philadelphia (US): Temple University Graduate Board.
Siswadi, Bakhtiar T, Maharsi R. 2012. Procrustes Analysis and the Goodness-offit of Biplots: Some Thoughts and Findings. Applied Mathematical
Sciences 6(72): 3579 – 3590.

21

Lampiran 1
Data Pengenalan Anggur (Wine Recognition Data)
Kel
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1

P1
14.23
13.2
13.16
14.37
13.24
14.2
14.39
14.06
14.83
13.86
14.1
14.12
13.75
14.75
14.38
13.63
14.3
13.83
14.19
13.64
14.06
12.93
13.71
12.85
13.5
13.05
13.39
13.3
13.87
14.02
13.73
13.58
13.68
13.76
13.51
13.48
13.28
13.05
13.07
14.22
13.56
13.41
13.88
13.24
13.05
14.21
14.38
13.9
14.1
13.94
13.05
13.83

P2

P3

P4

P5

P6

P7

P8

P9

1.71
1.78
2.36
1.95
2.59
1.76
1.87
3.15
1.64
1.35
2.16
1.48
1.73
1.73
1.87
1.81
1.92
1.57
1.59
3.1
1.63
3.8
1.86
1.6
1.81
2.05
1.77
1.72
1.9
1.68
1.5
1.66
1.83
1.53
1.8
1.81
1.64
1.65
1.5
3.99
1.71
3.84
1.89
3.98
1.77
4.04
3.59
1.68
2.02
1.73
1.73
1.65

2.43
2.14
2.67
2.5
2.87
2.45
2.45
2.61
2.17
2.27
2.3
2.32
2.41
2.39
2.38
2.7
2.72
2.62
2.48
2.56
2.28
2.65
2.36
2.52
2.61
3.22
2.62
2.14
2.8
2.21
2.7
2.36
2.36
2.7
2.65
2.41
2.84
2.55
2.1
2.51
2.31
2.12
2.59
2.29
2.1
2.44
2.28
2.12
2.4
2.27
2.04
2.6

15.6
11.2
18.6
16.8
21
15.2
14.6
17.6
14
16
18
16.8
16
11.4
12
17.2
20
20
16.5
15.2
16
18.6
16.6
17.8
20
25
16.1
17
19.4
16
22.5
19.1
17.2
19.5
19
20.5
15.5
18
15.5
13.2
16.2
18.8
15
17.5
17
18.9
16
16
18.8
17.4
12.4
17.2

127
100
101
113
118
112
96
121
97
98
105
95
89
91
102
112
120
115
108
116
126
102
101
95
96
124
93
94
107
96
101
106
104
132
110
100
110
98
98
128
117
90
101
103
107
111
102
101
103
108
92
94

2.8
2.65
2.8
3.85
2.8
3.27
2.5
2.6
2.8
2.98
2.95
2.2
2.6
3.1
3.3
2.85
2.8
2.95
3.3
2.7
3
2.41
2.61
2.48
2.53
2.63
2.85
2.4
2.95
2.65
3
2.86
2.42
2.95
2.35
2.7
2.6
2.45
2.4
3
3.15
2.45
3.25
2.64
3
2.85
3.25
3.1
2.75
2.88
2.72
2.45

3.06
2.76
3.24
3.49
2.69
3.39
2.52
2.51
2.98
3.15
3.32
2.43
2.76
3.69
3.64
2.91
3.14
3.4
3.93
3.03
3.17
2.41
2.88
2.37
2.61
2.68
2.94
2.19
2.97
2.33
3.25
3.19
2.69
2.74
2.53
2.98
2.68
2.43
2.64
3.04
3.29
2.68
3.56
2.63
3
2.65
3.17
3.39
2.95
3.54
3.27
2.99

0.28
0.26
0.3
0.24
0.39
0.34
0.3
0.31
0.29
0.22
0.22
0.26
0.29
0.43
0.29
0.3
0.33
0.4
0.32
0.17
0.24
0.25
0.27
0.26
0.28
0.47
0.34
0.27
0.37
0.26
0.29
0.22
0.42
0.5
0.29
0.26
0.34
0.29
0.28
0.2
0.34
0.27
0.17
0.32
0.28
0.3
0.27
0.21
0.32
0.32
0.17
0.22

2.29
1.28
2.81
2.18
1.82
1.97
1.98
1.25
1.98
1.85
2.38
1.57
1.81
2.81
2.96
1.46
1.97
1.72
1.86
1.66
2.1
1.98
1.69
1.46
1.66
1.92
1.45
1.35
1.76
1.98
2.38
1.95
1.97
1.35
1.54
1.86
1.36
1.44
1.37
2.08
2.34
1.48
1.7
1.66
2.03
1.25
2.19
2.14
2.38
2.08
2.91
2.29

P10
5.64
4.38
5.68
7.8
4.32
6.75
5.25
5.05
5.2
7.22
5.75
5
5.6
5.4
7.5
7.3
6.2
6.6
8.7
5.1
5.65
4.5
3.8
3.93
3.52
3.58
4.8
3.95
4.5
4.7
5.7
6.9
3.84
5.4
4.2
5.1
4.6
4.25
3.7
5.1
6.13
4.28
5.43
4.36
5.04
5.24
4.9
6.1
6.2
8.9
7.2
5.6

P11
1.04
1.05
1.03
0.86
1.04
1.05
1.02
1.06
1.08
1.01
1.25
1.17
1.15
1.25
1.2
1.28
1.07
1.13
1.23
0.96
1.09
1.03
1.11
1.09
1.12
1.13
0.92
1.02
1.25
1.04
1.19
1.09
1.23
1.25
1.1
1.04
1.09
1.12
1.18
0.89
0.95
0.91
0.88
0.82
0.88
0.87
1.04
0.91
1.07
1.12
1.12
1.24

P12

P13

3.92
3.4
3.17
3.45
2.93
2.85
3.58
3.58
2.85
3.55
3.17
2.82
2.9
2.73
3
2.88
2.65
2.57
2.82
3.36
3.71
3.52
4
3.63
3.82
3.2
3.22
2.77
3.4
3.59
2.71
2.88
2.87
3
2.87
3.47
2.78
2.51
2.69
3.53
3.38
3
3.56
3
3.35
3.33
3.44
3.33
2.75
3.1
2.91
3.37

1065
1050
1185
1480
735
1450
1290
1295
1045
1045
1510
1280
1320
1150
1547
1310
1280
1130
1680
845
780
770
1035
1015
845
830
1195
1285
915
1035
1285
1515
990
1235
1095
920
880
1105
1020
760
795
1035
1095
680
885
1080
1065
985
1060
1260
1150
1265

22

1
1
1
1
1
1
1
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2

13.82
13.77
13.74
13.56
14.22
13.29
13.72
12.37
12.33
12.64
13.67
12.37
12.7
12.37
13.11
12.37
13.34
12.21
12.29
13.86
13.49
12.99
11.96
11.66
13.03
11.84
12.33
12.7
12
12.72
12.08
13.05
11.84
12.67
12.16
11.65
11.64
12.08
12.08
12
12.69
12.29
11.62
12.47
11.81
12.29
12.37
12.29
12.08
12.6
12.34
11.82
12.51
12.42
12.25
12.72
12.22
11.61

1.75
1.9
1.67
1.73
1.7
1.97
1.43
0.94
1.1
1.36
1.25
1.13
1.45
1.21
1.01
1.17
0.94
1.19
1.61
1.51
1.66
1.67
1.09
1.88
0.9
2.89
0.99
3.87
0.92
1.81
1.13
3.86
0.89
0.98
1.61
1.67
2.06
1.33
1.83
1.51
1.53
2.83
1.99
1.52
2.12
1.41
1.07
3.17
2.08
1.34
2.45
1.72
1.73
2.55
1.73
1.75
1.29
1.35

2.42
2.68
2.25
2.4
2.3
2.68
2.5
1.36
2.28
2.02
1.92
2.16
2.53
2.56
1.7
1.92
2.36
1.75
2.21
2.67
2.24
2.6
2.3
1.92
1.71
2.23
1.95
2.4
2
2.2
2.51
2.32
2.58
2.24
2.31
2.62
2.46
2.3
2.32
2.42
2.26
2.22
2.28
2.2
2.74
1.98
2.1
2.21
1.7
1.9
2.46
1.88
1.98
2.27
2.12
2.28
1.94
2.7

14
17.1
16.4
20.5
16.3
16.8
16.7
10.6
16
16.8
18
19
19
18.1
15
19.6
17
16.8
20.4
25
24
30
21
16
16
18
14.8
23
19
18.8
24
2