Sistem Inferensi Fuzzy berbasis Feedback

Sistem Inferensi Fuzzy berbasis Feedback User dan
Ekstraksi Fitur Musik Untuk Pengenalan Emosi
Pada Musik
Ifriandi Labolo
Iadifriandi@gmail.com

ABSTRACT
Music has become one of the important things in our world, because almost all the activities we did not loose
connection with the music. Working while listening to music with a low volume makes a person more relaxed
in completing the work. To the present understanding of music not only on human perception, but also
research on how music develops computer can understand the emotions in the music.
The method is often used to analyze emotions in music including music using feature extraction. The music
feature extraction results when a rule can be applicable to generate emotional information contained in the
music. However, the use of the extracted features alone as parameter determining emotion emotion
recognition has not been able to produce an accurate, because the extraction of the feature contains many
ambiguous (dual membership), so the selection of the membership of each feature are often wrong and
incompatible with human intuition. This study proposed the model of emotion recognition in music -based
fuzzy inference system and user feedback to improve the accuracy of emotion recognition results. Fuzzy
chosen because emotions are vague and very close to human intuition.
Eculidean measurement results using the average distance of the participants at 10:56. This proves that the
value of model-based fuzzy inference system and user feedback can improve the recognition accuracy of

emotion in music.
Keywords: emotional music, feature extraction, fuzzy inference system

ABSTRAK
Musik telah menjadi salah satu hal penting di dunia kita, karena hampir seluruh kegiatan kita tidak lepas
kaitannya dengan musik. Bekerja sambil mendengarkan musik dengan volume yang rendah membuat
seseorang lebih rileks dalam menyelesaikan pekerjaannya. Sampai pada saat ini pemahaman musik tidak
hanya pada persepsi manusia saja, akan tetapi penelitian musik berkembang pada bagaimana komputer dapat
memahami emosi pada musik.
Metode yang sering digunakan untuk menganalisa emosi pada musik di antaranya menggunakan ekstraksi
fitur musik. Hasil ekstraksi fitur musik ini apabila diterapakan pada suatu aturan dapat menghasilkan
informasi emosi yang terkandung pada musik tersebut. Akan tetapi penggunaan hasil ekstraksi fitur saja
sebagai parameter penentu emosi belum dapat menghasilkan pengenalan emosi yang akurat, karena dalam
ekstraksi fitur tersebut mengandung banyak ambigu (keanggotaan ganda), sehingga pemilihan keanggotan dari
masing-masing fitur sering salah dan tidak sesuai dengan intuisi manusia. Penelitian ini mengusulkan model
pengenalan emosi pada musik berbasis sistem inferensi fuzzy dan feedback user untuk meningkatkan akurasi
hasil pengenalan emosi. Fuzzy dipilih karena emosi bersifat samar dan sangat dekat dengan intuisi manusia.
Hasil pengukuran menggunakan eculidean distance dari rata-rata partisipan sebesar 10.56. Nilai ini
membuktikan bahwa model berbasis sistem inferensi fuzzy dan feedback user dapat meningkatkan akurasi
pengenalan emosi pada musik.

Kata Kunci: Emosi musik, Ekstraksi fitur, Sistem inferensi fuzzy

Musik telah menjadi salah satu hal penting di
dunia kita [1]. Hampir seluruh kegiatan kita
tidak lepas kaitannya dengan musik. Manusia

menggunakan musik untuk menggubah emosi,
meluapkan emosi, menghibur diri, dan
meringankan stress [2]. Misalnya bekerja

Ifriandi Labolo, S.Kom,. M.Kom
Sekolah T inggi Manajemen Informatika Dan Komputer [STMIK ICHSAN] Gorontalo

sambil mendengarkan musik dengan volume
yang rendah membuat seseorang lebih rileks
dalam menyelesaikan pekerjaan tersebut, atau
orang yang sedang mendapatkan masalah
biasanya memilih mendengarkan musik untuk
menenangkan perasaannya.
Perkembangan musik digital membuat tren

musik tidak berhenti sampai pada persepsi
manusia saja. Beberapa tahun belakangan
muncul kajian baru pada bidang Music
Intelligence yaitu Music Information Retrieval
(MIR) [3]. Penelitian-penelitian pada MIR di
antaranya adalah tentang bagaimana komputer
dapat memahami emosi yang ada pada
sepotong musik (Music Emotion Recognition)
[4]. Hal ini merupakan tantangan yang sulit,
karena persepsi manusia terhadap emosi selalu
berbeda [5]. Music Emotion Recognition
(MER) menggunakan pendekatan model
emosi psikologi untuk membantu memodelkan
emosi manusia agar dapat dipahami komputer
[3] [6] [7].
Beberapa penelitian pada MER menggunakan
ekstraksi fitur [8]. Ketepatan akurasi hasil
emosi sangat dipengaruhi oleh parameter dan
hasil
ekstraksi

fitur
yang
digunakan.
Permasalahan yang timbul akibat ekstraksi
fitur ini yaitu hasil dari proses ekstraksi
tersebut berupa nilai crisp (tegas), sehingga
sering terjadi ambigu atau pemaknaan ganda
pada proses ekstraksi fitur ini. Misalnya
setelah di ekstrak, tempo mempunyai nilai
tegas 76, sedangkan menurut kamus musik
Banoe-Pono [9] dan Dictionary of Music [10],
tempo 76 tersebut termasuk tipe tempo Adagio
(tempo lambat) dengan keanggotaan 66-76
dan Andante (tempo
sedang) dengan
keanggotaan 76-108. Di sini telihat bahwa
tempo 76 tersebut mempunyai keanggotaan
ganda, yaitu sebagai Andante dan sebagai
Adagio. Pemilihan jenis tempo dan hasil
ekstraksi fitur yang salah dapat menyebabkan

pengenalan emosi nanti menjadi kurang
akurat. Selain itu masing-masing instrument
musik memiliki warna dan emosinya sendiri,
lagu yang sama tetapi dimainkan dengan
instrument yang berbeda seperti piano, string,
atau flute tentunya mengandung emosi yang
berbeda pula, sehingga penggunaan fitur
seperti tempo, mode, atau loudness saja belum

cukup untuk dijadikan parameter penentu
emosi.
Penelitian
ini
mengembangkan
model
pengenalan emosi musik berbasis sistem
inferensi fuzzy dan feedback user. Sistem
inferensi fuzzy dipilih karena menurut Seif ElNasr,
M. dalam penelitiannya tentang
klasifikasi

musik
berdasarkan
emosi
berpendapat bahwa “Fuzzy logic is a more
appropriate mathematical tool for emotion
detection” [11]. Sedangkan menurut Rossant
[8] pada penelitiannya tentang Optical Music
Recognition berpendapat bahwa, “Fuzzy sets
and possibility theory offer a good framework
for resolve ambiguities result from feature
extraction”. Feedback user akan digunakan
dalam proses training, ini dilakukan untuk
memperkecil selisih perbedaan jarak antara
model
yang
diusulakan
dengan
hasil
intrepretasi user (praktisi musik) dalam
menetukan emosi pada musik.


1. TINJAUAN STUDI
Pada umunya tahap pengenalan emosi pada
musik ini terbagi atas dua tahapan, yaitu
feature extraction dan mapping method [4]
[5]. Awal penelitian tentang emosi ini baru
dimulai pada tahun 2001, yaitu penelitian yang
dilakukan oleh Juslin dan Sloboda [12].
Mereka berpendapat bahwa pemanfaatan
isyarat akustik dalam emosi musik dapat
digunakan untuk mencari hubungan korelasi
antara ekspresi emosi, seperti marah, sedih,
dan bahagia dengan isyarat akustik seperti
tempo, spektrum, dan artikulasi.
Yang et all [6]. Ide dasar penelitian mereka
yaitu bagaimana mengenali konten emosi dari
sinyal audio atau lebih spesifiknya mereka
menformulasikan MER sebagai permasalahan
regresi untuk memprediksi nilai Arousal dan
Valence (AV values) dari beberapa sampel

musik. Arousal menunjukan dimensi energi
dan Valence menunjukan dimensi stress.
Mereka menggunakan 12 fitur hasil ekstraksi
di antaranya Volume, Loudness, dan Chord
sebagai parameter untuk penentu emosi.
Untuk mengekstrak fitur-fitur ini mereka
menggunakan beberapa framework yaitu
PsySound dan Marsyas. Setelah mengekstrak

fitur musik, selanjutnya mereka menggunakan
SVR (Support Vector Regression) untuk
mapping ke model emosi Thayer’s (Gambar 1.
Thayers emotions model). Hasil terbaik dari
hasil evaluasi statistik � yang mereka peroleh
yaitu 58.3% untuk arousal dan 28.1% untuk
valence.
Peneliti lainnya, Han et all [4] melakukan
penelitian yang serupa. Mereka menggunakan
empat fitur seperti Scale, Average Energy
(AE),

Rhythm,dan
Harmonics
sebagai
parameter penentu emosi. Penelitian ini
menggunkan metode SVR, SVM, dan GMM
untuk mencari nilai AV. Pengukuran pada
penelitian ini dilakukan dengan dua metode,
yaitu koordinat Cartesian dan Polar. Hasil
terbaik yang diperoleh adalah untuk koordinat
cartesian yaitu 91.52% (151 dari 165 sampel),
sedangkan untuk koordinat polar yaitu
94.55% (156 dari 165 sampel). Dari hasil
pengukuran ini terlihat bahwa akurasi dengan
menggunakan polar lebih baik dibandingkan
menggunakan koordinat cartesian.
Selanjutnya penelitian yang dilakukan oleh
Yang, Liu, dan Chen [13], melakukan
komparasi
terhadap
metode

klasifikasi
berbasis fuzzy, yaitu Fuzzy K-NN Classifier
dan Fuzzy Nearest-Mean. Metode klasifikasi
ini digunakan untuk mengukur kekuatan emosi
pada sebuah lagu. Untuk memperoleh tempo,
loudness,
dan
fitur
lainnya,
mereka
menggunakan framework PsySound. Hasil
akurasi yang diperoleh untuk FKNN adalah
68.22% dengan β=0.75, sedangkan untuk
FNM lebih baik dibandingkan FKNN yaitu
71.43%.

Gambar 1. Thayers emotions model

2. MODEL YANG DIUSULKAN
Pada model berbasis ekstraksi fitur secara

umum (Gambar 2.a), setelah fitur dari audio
diperoleh dan dengan menerapkan beberapa
aturan pakar maka nilai arousal dan valence
(AV value) akan langsung diketahui.
S ong

S ong

Pengolahan awal data

Pengolahan awal data

Rule s

Sistem Inferensi Fuzzy
+ feedback user

Label Emosi
Nilai Arousal/Valence

Label Emosi
(a)

(b)

Gambar 2. (a) Model berbasis Ekstraksi Fitur. (b)
Model berbasis sistem inferensi fuzzy dan feedback
user

Model berbasis ekstraksi fitur ini memiliki
kelemahan pada hasil ekstraksi fitur. Karena
emosi sangat dekat dengan intuisi manusia,
maka penggunaan nilai ekstraksi fitur yang
berupa nilai crisp atau tegas dapat
mengandung banyak ambigu (keanggotaan
ganda).
Untuk mengatasi permasalahan ini, maka
digunakan sistem pengenalan emosi musik
berbasis sistem inferensi fuzzy (Gambar 2.b),
karena fuzzy dapat mengatasi ambigu pada
hasil ekstaksi fitur sehingga fitur yang
dijadikan parameter untuk pemetaan pada
model emosi merupakan fitur dengan
keanggotaan yang benar. Selanjutnya untuk
mendapatkan hasil pengenalan emosi pada
musik yang lebih akurat tidak cukup dengan
menggunakan sistem inferensi fuzzy saja, oleh
karena

itu pada model yang diusulkan akan
ditambahkan hasil feedback dari user sebagai
pembelajaran untuk pembuatan aturan-aturan
pada tahap inferensi fuzzy. Penggunaan
feedback user pada penyusunan inferensi
fuzzy dilakukan untuk semakin memperkecil
selisih perbedaan antara pengenalan emosi
yang dilakukan oleh sistem dan hasil
pengenalan emosi yang dilakukan oleh
manusia (Gambar 3).
User Feedback

Song

Pengolahan awal
data

Label Emosi

Nilai
Arousal/Valence

Sistem Inf erensi
Fuzzy

Euclidean Distance

Gambar 3. Tahap learning menggunakan feedback
user untuk penyusunan inferensi

Model yang diusulkan dibagi menjadi dua
tahapan, yang pertama adalah tahap learning
menggunakan feedback user dan tahap
selanjutnya adalah tahap pengenalan emosi
musik itu sendiri. Sebuah lagu yang sama akan
diujikan kepada tiga orang praktisi musik yang
telah
dipilih
sebelumnya.
Dari
hasil
pengenalan emosi oleh tiga praktisi musik ini
kemudian akan dibandingkan dengan sistem
pengenalan emosi musik berbasis sistem
inferensi fuzzy menggunakan pengukuran
euclidean distance. Jika terdapat perbedaan
antara nilai arousal dan valence oleh sistem
dan hasil feedback oleh user tersebut maka
akan dicari rata-rata nilai arousal dan valence
dari tiga orang partisipan, dan hasil yang
diperoleh akan diterapkan pada aturan yang
telah dibuat sebelumnya.
2.1

Sistem Inferensi Fuzzy

Sistem Inferensi Fuzzy atau Fuzzy Inference
System (FIS) merupakan bagian dari fuzzy

system yang memungkinkan pengetahuan
seorang pakar dapat ditransfer ke dalam suatu
perangkat lunak, sehingga perangkat lunak
tersebut dapat memetakan suatu input menjadi
output berdasarkan IF-THEN rule yang
diberikan [14]. Berbeda dengan logika digital
yang hanya memiliki dua nilai yaitu 1 (Satu)
atau 0 (Nol), logika fuzzy memiliki nilai yang
disebut derajat keanggotaan dalam rentang 0
(Nol) sampai 1 (Satu), sehingga dengan logika
fuzzy kita dapat merepresentasikan keadaan
yang ada di dunia nyata menggunakan bahasa
(linguistic).
Secara umum suatu sistem berbasis aturan
fuzzy terdiri dari tiga komponen utama, yaitu:
Fuzzification, Inference, dan Defuzzyfication.
1. Fuzzification
Fuzzification atau fuzzifikasi merupakan
proses pengubahan nilai input yang berada
dalam suatu himpunan tegas menjadi nilai
input yang berada dalam suatu himpunan fuzzy
[15]. Dalam menentukan apakah suatu elemen
merupakan anggota dari suatu himpunan fuzzy
tidak semudah himpunan tegas. Derajat
keanggotaan berupa bilangan real dalam
interval tertutup [0, 1], dengan demikian
fungsi keanggotaan dari suatu himpunan fuzzy
dalam semesta x adalah pemetaan µ� dari x ke
interval [0,1].
µ� : x  [0,1]

(1)

Nilai fungsi µ� (x) menyatakan derajat/ nilai
keanggotaan unsur (elemen) x dalam anggota
A. Nilai fungsi 1 menyatakan keanggotaan
penuh, sedangkan nilai fungsi 0 menyatakan
bukan merupakan anggota himpunan.
Input untuk fuzzifikasi pada penelitian ini
adalah empat hasil ekstraksi fitur musik, yaitu
tempo, loudness, mode, dan timbre.
2. Inference
Dalam suatu sistem berbasis aturan fuzzy,
proses inference memperhitungkan semua
aturan yang ada di dalam basis pengetahuan.
Hasil dari proses inference direpresentasikan
oleh suatu fuzzy set untuk setiap variabel bebas
(pada consequent). Derajat keanggotaan untuk

setiap nilai variabel tidak bebas menyatakan
ukuran kompabilitas terhadap variabel bebas
(pada antecedent).
3. Defuzzyfication
Defuzzification atau penegasan berfungsi
untuk mengubah fuzzy output menjadi crisp
value berdasarkan fungsi keanggotaan yang
telah
ditentukan
[15].
Penelitian
ini
menggunakan metode Centroid Method untuk
medapatkan
nilai
hasil
defuzzyfication.
Persamaan untuk centroid method adalah
sebagai berikut:
y* =

∑ ��� �
∑ �� �

Loudness dikelompokan menjadi dua kategori
yaitu loudness pelan (silent) dan keras (loud)
[17]. Pengelompokan ini didasarkan atas
tingkatan bunyi yang mampu didengar oleh
manusia. Fitur ini digunakan untuk mengukur
tingkat energi atau arousal pada sebuah lagu.
Ekspresi keanggotaan untuk loudness adalah
sebagai berikut:

(2)

Persamaan di atas digunakan apabila y berupa
nilai diskrit.
2.2

2. Loudness

Ekstraksi Fitur Musik

Ekstraksi fitur merupakan langkah penting
dalam pembelejaran mesin (machine learning)
[16].
Ekstraksi fitur digunakan untuk
memperoleh informasi musik dari analisa dan
perhitungan yang dilakukan pada sinyal audio.
Hasil ekstraksi berpengaruh besar terhadap
hasil pengenalan emosi nanti. Fitur dari musik
yang akan diekstraksi adalah tempo, loudness,
mode, dan timbre.

3. Mode
Mode dikelompokan menjadi dua, yaitu mode
minor dan mode mayor. Dimana mode minor
memiliki nilai lebih kecil dari 0, sedangkan
mode mayor memiliki nilai lebih besar dari 0.
Fitur ini digunakan untuk mengukur tingkat
stress atatu valence pada model emosi.
Pengelompokan ini didasarkan atas panduan
manual MIRToolBox oleh Lartillot [18].
Ekspresi keanggotaan untuk mode adalah
sebagai berikut:

1.Tempo
Menurut kamus Banoe Pono [9] dan
Dictionary of Music [10], pembagian tempo
dapat dikategorikan menjadi tiga bagian, yaitu
tempo pelan (slow), tempo sedang (middle),
dan tempo cepat (fast). Tempo diukur dengan
satuan beat per minute (bpm). Tempo
digunakan untuk mengukur tingkat energi atau
arousal
pada
sebuah
lagu.
Ekspresi
keanggotaan untuk tempo adalah sebagai
berikut:

4. Timbre
Timbre dikelompokan ke dalam dua kategori,
yaitu timbre gelap (dark) dan timbre terang
(bright). Pengelompokan ini didasarkan atas
Wapnick dan Freeman dalam Collier [19].
Wapnick berpendapat bahwa alat musik
seperti brass, string
dengan oktav tinggi,
saxophone, flute, dan clarinet cenderung
memiliki
warna
suara
yang
terang
dibandingkan dengan piano, gitar, bass, atau
organ yang mempunyai warna suara yang
gelap. Penelitian ini menggunakan sampel
musik, dan bukan sampel alat-alat musik yang
telah disebutkan oleh karena itu pengukuran
timbre akan diukur berdasarkan nilai rata-rata
penggunaan alat-alat musik tersebut dalam
suatu sampel musik. Fitur timbre ini

digunakan untuk mengukur tingkat stress atau
valence
pada
sebuah
lagu.
Ekspresi
keanggotaan untuk timbre adalah sebagai
berikut:

2.3 Eksperimen dan Pengujian Model
Secara keseluruhan sistem ini terbagi atas dua
bagian, bagian yang pertama adalah ekstraksi
fitur yang dibangun menggunakan tool
programing Matrix Labolatory (MATLAB)
R2009b. MATLAB menyediakan banyak
library fungsi matematika di antaranya untuk
keperluan
signal
processing,
audio
processing, transformasi domain, dan lain
sebagainya. Pada bagian ini digunakan
framework MIRToolBox untuk melakukan
ekstraksi fitur musik.
Bagian yang kedua adalah sistem inferensi
fuzzy untuk pengenalan emosi, pada bagian ini
dikembangkan sebuah framework sistem
inferensi
fuzzy
yang
disebut
dengan
FuzzyBox. Framework ini dibangun untuk
lingkup pemrograman Java. Paket Java yang
digunakan merupakan include dari Netbeans
6.9.1. Rancangan program utama dibuat
dengan menggunakan java. Walaupun sistem
ini dirancang dengan menggunakan dua tool
pemrograman, tetapi kita hanya cukup
menjalankan satu file *.jar yang merupakan
hasil kompiler dari program utama tersebut.

Gambar 4. GUI iFuzzyMotions

Metode pengukuran yang digunakan pada
penelitian ini yaitu Euclidean Distance.
Teknik ini akan menghitung jarak antara hasil
pengenalan emosi oleh prototipe sistem ini
dan hasil pengenalan emosi oleh beberapa
praktisi musik.
Rumus untuk
mencari
euclidean distance adalah sebagai berikut:
�= √



+



(3)

Dimana x1 merupakan koordinat x dari titik
pertama, x2 merupakan koordinat x dari titik
kedua, y1 merupakan koordinat y dari titik
pertama dan y2 merupakan koordinat y dari
titik kedua. Dari persamaan ini akan dicari
nilai d yang paling kecil, karena semakin kecil
jarak antara keduanya maka semakin akurat
pula hasil pengenalan emosi antara partisipan
dan model.
Sampel musik
yang
digunakan untuk
pengujian yaitu 30 lagu tanpa vokal dengan
genre Classic Symphony dan 20 lagu dengan
vokal ber-genre POP, Kroncong, dan Latin.

dengan hasil pengenalan emosi dari partisipan, dan hasil
yang diperoleh adalah sebagai berikut:

3. EVALUASI DAN VALIDASI HASIL
Pada
ekperimen
pertama
dilakukan
perbandingan
model
pengenalan
emosi
berbasis
ekstraksi
fitur
dengan
hasil
pengenalan emosi yang dilakukan oleh
partisipan. Hasil yang diperoleh adalah
sebagai berikut:
Tabel 1. Evaluasi model deteksi emosi berbasis
ekstraksi fitur
Partisipan
Partisipan 1

2
1.05 -

Partisipan 3
0.75 – Lagu

Kasus

0.75 - Lagu

terbaik

ke 42

Kasus

70.16 - Lagu

61.99 -

58.67 – Lagu

terburuk

ke 3

Lagu ke 3

ke 3

Rata-rata

17.23

16.75

12.08

Lagu ke
49

ke 33

Gambar 5. Perbandingan model berbasis ekstraksi fitur
dengan partisipan
Dari hasil tabel 1 diketahui nilai rata-rata dari ke tiga
partisipan untuk kasus terbaik diperoleh sebesar 0.85,
dan kasus terburuk dari ke tiga partisipan diperoleh
sebesar 63.60. Hasil rata-rata dari ke tiga partisipan
adalah 15.35. Nilai ini menunjukan bahwa pengenalan
emosi berbasis
ekstraksi fitur belum dapat
menghasilkan pengenalan emosi yang akurat, karena
nilai rata-rata yang diperoleh masih cukup tinggi.
Pada eksperimen kedua dilakukan perbandingan antara
model pengenalan emosi berbasis sistem inferensi fuzzy

Tabel 2. Evaluasi model deteksi emosi berbasis sistem
inferensi fuzzy
Partisipan 1

Partisipan 2

Partisipan 3

Kasus

0.75 - Lagu

0.72 – Lagu

0.67 - Lagu

terbaik

ke 42

ke 38

ke 41

Kasus

47.67 -

46.08 - Lagu

48.29 -

terburuk

Lagu ke 14

ke 14

Lagu ke 13

Rata-rata

12.10

15.45

12.57

Dari hasil tabel 2 diketahui nilai rata-rata ke
tiga partisipan untuk kasus terbaik diperoleh
0.71, untuk kasus terburuk diperoleh 47.34,
dan hasil rata-rata dari ketiga partisipan adalah
13.37.
Nilai ini menunjukan bahwa
pengenalan emosi berbasis sistem inferensi
fuzzy lebih tinggi akurasinya dibandingkan
dengan model berbasis ekstraksi fitur. Hasil
visualisasi dapat dilihat pada gambar 6.

Gambar 6. Perbandingan model berbasis sistem
inferensi fuzzy dengan partisipan

Pada
eksperimen
terakhir
dilakukan
perbandingan model berbasis inferensi fuzzy
dengan perbaikan aturan yang diperoleh dari
hasil pembelajaran pengenalan emosi oleh
feedback user. Hasil yang diperoleh adalah
sebagai berikut:

Tabel 3. Evaluasi model deteksi emosi berbasis sistem
inferensi fuzzy + feedback user
Partisipan 1

Partisipan 2

Partisipan 3

Kasus

0.11 - Lagu

0.19 – Lagu

0.20 - Lagu

terbaik

ke 42

ke 38

ke 41

Kasus

47.67 - Lagu

46.08 -

28.61 -

terburuk

ke 14

Lagu ke 14

Lagu ke 20

Rata-rata

10.74

12.70

8.26

Dari tabel 3 di atas diketahui bahwa nilai ratarata dari ke tiga partisipan untuk kasus terbaik
adalah 0.16, kasus terburuk adalah 40.78.
Nilai rata-rata yang diperoleh adalah 10.56.
Dari nilai ini diperoleh kesimpulan, bahwa
pengenalan emosi berbasis sistem inferensi
fuzzy dengan penambahan feedback user
dapat meningkatkan akurasi pengenalan emosi
pada musik. Hasil visualisasi perbandingan
model pengenalan emosi berbasis sistem
inferensi fuzzy dan feedback user dapat dilihat
pada gambar 7.

emosi menggunakan sistem inferensi fuzzy.
Ini dibuktikan dengan tingginya nilai rata-rata
selisih jarak oleh tiap partisipannya, yaitu
15.35. Ini membuktikan bahwa ambigu
(keanggotaan ganda) pada hasil ekstraksi fitur
sangat mempengaruhi hasil pengenalan emosi.
Untuk lebih memperkecil perbedaan hasil
pengenalan emosi, maka untuk penyusunan
inferensi fuzzy dibutuhkan pembelajaran dari
hasil feedback user. Penerapan metode ini
menghasilkan nilai rata-rata yang lebih kecil
yaitu
10.56
dari
ketiga
partisipan
dibandingkan
menggunakan
model yang
berbasis sistem inferensi fuzzy saja yang nilai
rata-ratanya adalah 13.37.
Nilai yang diperoleh untuk model pengenalan
emosi berbasis sistem inferensi fuzzy dan
feedback user ini masih belum terlalu tinggi,
karena ketepatan akurasi pengenalan emosi
pada musik berbasis ekstraksi fitur sangat
bergantung pada hasil ekstraksi fitur tersebut.
Semakin akurat hasil fitur yang diekstrak,
maka semakin akurat pula pengenalan
emosinya. Berikut juga dengan sampel musik
yang digunakan sangat mempengaruhi hasil
ekstraksi fitur dan emosi yang terkandung
dalam musik tersebut.
5.

REFERENSI

[1] Thomas Lidy, "Evaluation of New Audio Features
and Their Utilization in Novel Music Retrieval
Applications," Viena University of Technology,
Austria, PhD Thesis Dec. 2006.
[2] Patrik N. Juslin and Daniel Vastfjall, "Emotional
responses to music:The need to consider
underlying mechanisms," in University Press,
Cambridge, 2008, pp. 559-621.
Gambar 7. Perbandingan model berbasis sistem
inferensi fuzzy + feedback user dengan partisipan

4. KESIMPULAN
Dari
hasil analisis,
eksperimen,
serta
pengujian yang dilakukan, terlihat bahwa
pengenalan emosi berbasis ekstraksi fitur saja
memiliki tingkat pengenalan emosi yang
kurang akurat dibanding dengan pengenalan

[3] Jun Sanghoon, Rho Seungmin, Han Byeong-jun,
and Hwang Eenjun, "A Fuzzy Inference-based
Music Emotion Recognition System," in
International Society for Music Information
Retrieval (ISMIR), Korea, 2008, pp. 673-677.
[4] Byeong-jun Han, Seungmin Rho, Roger B.
Dannenberg, and Eenjun Hwang, "SMERS: Music
Emotion Recognition Using Support Vector
Regression," in International Society for Music
Information Retrieval (ISMIR), Korea, 2009, pp.

651-656.
[5] Yi-Hsuan Yang, Chia-Chu Liu, and Homer H.
Chen, "Music Emotion Recognition: The Role of
Individuality," in International Society for Music
Information Retrieval (ISMIR), Germany, 2007,
pp. 21-29.
[6] Yi-Hsuan Yang, Yu-Ching Lin, Ya-Fan Su, and
Homer H. Chen, "Music Emotion Clasification: A
Regression Approach," in National Science
Council, Taiwan, 2006.
[7] Yi-Hsuan Yang, Yu-Ching Lin, Ya-Fan Su, and
Homer H. Chen, "A Regression Approach to
Music Emotion Recognition," Audio, Speech, and
Language Processing, vol. 16, no. 2, pp. 449-457,
February 2008.
[8] Florence Rossant and Isabelle Bloch, "Optical
Music Recognition Based on Fuzzy Modeling of
Sysmbol Classes and Music Writing Rules," in
International Society for Music Information
Retrieval (ISMIR), Paris, 2005.
[9] Pono Banoe, Kamus Musik . Jogjakarta, Indonesia:
Kanisius, 2003.
[10] Christine Ammer, Dictionary Of Music. New
York, United States of America: Acid-Free Paper,
2004.
[11] El-Nasr M. Seif, J. Yen, and T. Loerger, "FLAME
– Fuzzy Logic Adaptive Mode Of Emotions,"
Autonomous Agents and Multi Agent Systems, vol.
3, pp. 219-257, 2000.
[12] P. N. Juslin and J. A. Sloboda, Music and
Emotion: Theory and Research. New York:
Oxford University Press, 2001.
[13] Yi-Hsuan Yang, Chia-Chu Liu, and Homer H.
Chen, "Music Emotion Classification: A Fuzzy
Approach," in National Science Council, Taiwan,
2006.
[14] Agus Naba, Belajar Cepat Fuzzy Logic
Menggunakan MATLAB. Jakarta: Andy Offset,
2009.
[15] Suyanto, Soft Computing: Membangun Mesin BerIQ Tinggi. Bandung, Indonesia: Informatika
Bandung, 2008.

[16] Alberto Zuccato, "Content-based Music Similarity,
Visualization and Automatic Playlist Generation,"
in Audio Processing and Indexing, New York,
January 2011.
[17] Mary Florentine, Arthur N. Popper, and Richard R.
Fay, Loudness. New York, USA: Springer, 2011.
[18] Olivier Lartillot. (2011, January) MIR toolbox
1.3.2 Users Manual. Document.
[19] William G. Collier and Timothy L. Hubbard,
"Musical scales and brightness evaluations: Effects
of pitch, direction, and scale mode," , Pembroke,
1998, pp. 151-173.