Laporan Tugas III Klasifikasi Data Mini

Laporan Tugas III Data Mining
Oleh: Ahmad Ariful Amri |
1108107010054

Dosen pembimbing: Dr. Muhammad Subianto, M.Si

http://www.liataja.com/
http://asalasah.blogspot.com/
http://asalasah.net/
Tugas 3 Data Mining
Tugas 3 kali ini berkaitan dengan klasifikasi. Klasifikasi merupakan memetakan
(mengklasifikasikan) data ke dalam satu atau beberapa kelas yang sudah didefinisikan
sebelumnya.
K-Nearest Neighbor (K-NN) adalah suatu metode yang menggunakan algoritma supervised
dimana hasil dari sampel uji yang baru diklasifikasikan berdasarkan mayoritas dari kategori
pada K-NN. Tujuan dari algoritma ini adalah mengklasifikasi objek baru berdasakan atribut
dan sampel latih. pengklasifikasian tidak menggunakan model apapun untuk dicocokkan dan
hanya berdasarkan pada memori. Diberikan titik uji, akan ditemukan sejumlah K objek (titik
training) yang paling dekat dengan titik uji. Klasifikasi menggunakan voting terbanyak di
antara klasifikasi dari K objek. Algoritma K-NN menggunakan klasifikasi ketetanggaan
sebagai nilai prediksi dari sample uji yang baru. Dekat atau jauhnya tetangga biasanya

dihitung berdasarkan jarak Eucledian.
Ada 2 file dari tugas 2 yang akan dilanjutkan. Dataset WSDL memiliki total 569 sampel dan
dataset Abalone memiliki total 4177 sampel. Pada Tugas 3 ini, anda diminta untuk
memecahkan file ARFF dari dataset WDBC menjadi 2 file (WDBC-training.arff dan WDBCtesting.arff). Jumlah sampel yang harus ada dalam file WDBC-training.arff adalah sebanyak
75% sd 80% dari total sampel yang dipilih secara acak, sedangkan jumlah sampel yang harus
ada dalam file WDBC-testing.arff adalah berkisar antara 20% sd 25% dari total sampel.
Lakukan hal yang sama untuk dataset Abalone. Dataset ini juga harus dipecah menjadi 2 file
(Abalone-training.arff dan Abalone-testing.arff). Jumlah sampel yang harus ada dalam file
Abalone-training.arff adalah sebanyak 75% sd 80% dari total sampel yang juga dipilih secara
acak, sedangkan jumlah sampel yang harus ada dalam file Abalone-testing.arff adalah
sebanyak kurang lebih 20% sd 25%.
Lakukan proses klasifikasi menggunakan Classifier IBk (Lazy/KNN) yang tersedia dalam
perangkat lunak WEKA. Set parameter k=3, k=5, k=7, k=9, dan k=11. Gunakan file testing
dari masing-masing dataset untuk menguji keakuratan hasil klasifikasi. Akurasi dilihat dari
nilai Precision, Recall dan F-Measure. Bandingkan nilai akurasi untuk setiap k dengan
parameter distanceWeighting = no distance weighting dan nilai parameterdistanceWeighting
= Weight by 1/distance. Lakukan juga pengujian (testing) menggunakan crossvalidation dengan parameter folds=10.
Data training dibagi menjadi k buah subset (subhimpunan). Dimana k adalah nilai dari fold.
Selanjutnya, untuk tiap dari subset, akan dijadikan data tes dari hasil klasifikasi yang
dihasilkan dari k-1 subset lainnya.


1. Pemisahan Data
~2~

a. Data Abalone
Sebelum mengacak barisan data yang ada di dalam file abalone.arff, terlebih dahulu
dilakukan pembersihan atribut-atribut kolom headernya, selain itu juga dilakukan
backup, untuk mengembalikan atribut headernya serta agar dapat dikembalikan jika
trjadi kesalahan. Setelah selesai barulah dilakukan langkah-langkah pemisahan data
abalone. Adapun langkah yang dilakukan sebagai berikut:
1. Cara mengacak data yang ada didalam file abalone.arff, setelah diacak, akan dibuatkan
file baru bernama abalone_shuffle.arff yang diletakkan dalam folder yang sama.

2.

Berikut ini perbandingan antara data abalone.arff sebelum dishuffle dengan yang sudah
dishuffle (abalone_shuffle.arff).

3.


Selanjutnya data yang sudah diacak akan di belah menjadi 2 file, Abalone-testing.arff
dan Abalone-training.arff. Menggunakan perintah split –l 3258 yang artinya membelah
file pada baris ke 3258 atau 78% dari seluruh baris file abalone_shuffle.arff.

~3~

Setelah dibelah akan menghasilkan 2 file, xaa dan xab. Nah file xaa merupakan file
dengan jumlah baris 3258 dan nama file tersebut dirubah menjadi Abalone-training.arff
. Sedangkan yang satunya lagi xab, yang berjumlah 22% dari file abalone_suffle.arff
disimpan menjadi Abalone-training.arff
b.

Data WDBC
Sama persis seperti yang dilakukan pada file abalone.arff. Sebelum mengacak barisan
data yang ada di dalam file wsdl.arff, terlebih dahulu dilakukan pembersihan atributatribut kolom headernya, selain itu juga dilakukan backup.. Setelah selesai barulah
dilakukan langkah-langkah pemisahan data abalone. Adapun langkah yang dilakukan
sebagai berikut:
1.

2.


Cara mengacak data yang ada didalam file wsdl.arff, setelah diacak, akan dibuatkan
file baru bernama wsdl_shuffle.arff yang diletakkan dalam folder yang sama.

Berikut ini perbandingan antara data abalone.arff sebelum dishuffle dengan yang sudah
dishuffle (wsdl _shuffle.arff).

~4~

3.

Selanjutnya data yang sudah diacak akan di belah menjadi 2 file, WDBC-testing.arff
dan WDBC -training.arff. Menggunakan perintah split –l 444 yang artinya membelah
file pada baris ke 444 atau 78% dari seluruh baris file wsdl_shuffle.arff.

Setelah dibelah akan menghasilkan 2 file, xaa dan xab. Nah file xaa merupakan file
dengan jumlah baris 3258 dan nama file tersebut dirubah menjadi Abalone-training.arff
. Sedangkan yang satunya lagi xab, yang berjumlah 22% dari file abalone_suffle.arff
disimpan menjadi Abalone-training.arff


2. Melakukan Klasifikasi
Disini akan dilakukan pengklasifikasian terhadap file Abalone dan WDBC. Beberapa
pengujian yang dilakukan misalnya merubah aadatribut N, weight dll
a. Data Abalone
Langkah yang dilakukan dalam proses pengklasifikasian adalah sebagai berikut:
1. Buka aplikasi weka lalu, buka file Abalone-training.arff yang sudah dipecah
sebelumnya.

~5~

2.

Selanjutnya pilih tab ‘classify’ lalu pilih lazy selanjutnya pilih IBK.

~6~

3.

Selanjutnya, lihat pada sidebar kiri. Pada ‘test options’ pilih ‘supplied test set’. Klik
set dan open file yang bernama Abalone-testing.arff


~7~

4.

Kemudian dilakukan uji coba dengan cara memasukkan nilai KNN=3 dengan
menge-klik IBK.

~8~

5.

Klik Oke, lalu kembali ke sidebar kiri, klik start untuk memulai. Nah selanjutnya
akan ditampilkan hasilnya dibagian kanan.

Pada screen shot di atas terlihat dengan ujicoba KNN=3 didapatkan nilai rata-rata
pesisi 0,523 dan recall 0,517 serta F-measure 0,516. Hasil di atas masih kurang
bagus, Nampak bagian paling atas masih banyak kesalahan klasifikasi yang
mencapai 48.3%
6.


Untuk ujicoba KNN = 5

Pada screen shot di atas terlihat dengan ujicoba KNN=5 didapatkan nilai rata-rata
presisi 0,532 dan recall 0,521 serta F-measure 0,523. Hasil di atas masih kurang
bagus, Nampak bagian paling atas masih banyak kesalahan klasifikasi yang
mencapai 47.8%, berkurang sedikit dari ujicoba KNN=3

~9~

7.

Untuk ujicoba KNN = 7

Pada screen shot di atas terlihat dengan ujicoba KNN=7 didapatkan nilai rata-rata
presisi 0,525 dan recall 0,524 serta F-measure 0,524. Hasil di ats masih kurang
bagus, Nampak bagian paling atas masih banyak kesalahan klasifikasi yang
mencapai 47.5%. berkurang tipis sekali dari sebelumnya
8.


Untuk ujicoba KNN = 9

Pada screen shot di atas terlihat dengan ujicoba KNN=9 didapatkan nilai rata-rata
presisi 0,54 dan recall 0,54 serta F-measure 0,536. Hasil di atas masih kurang
bagus, Nampak bagian paling atas masih banyak kesalahan klasifikasi yang
mencapai 46 %. Namun semakin baik dari sebelumnya
9.

Untuk ujicoba KNN = 11

~ 10 ~

Pada screen shot di atas terlihat dengan ujicoba KNN=11 didapatkan nilai rata-rata
presisi 0,54 dan recall 0,544 serta F-measure 0,539. Hasil di ats masih kurang
bagus, Nampak bagian paling atas masih banyak kesalahan klasifikasi yang
mencapai 45.5%. Berkurang sedikit dari sebelumnya.
Hasil dengan metode KNN menjadi semakin baik dengan merubah inputan
parameter K. Namun perubahannya kecil sekali, dari inputan K=3 hingga K=11
perubahan kalkulasi datanya sekitar 3 % saja
Sudah selesai dengan ujicoba merubah parameter K, selanjutnya dilakukan perbandingan

dengan tambahan parameter distance weight. Jadi disini akan dilakukan perbandingan
akurasi antara yang hanya merubah K saja dengan yang merubah K ditambah distance
Weight.

~ 11 ~

10.

Untuk parameter K = 3 dan distance Weighting = Weight by 1/distance

Pada screen shot di atas terlihat dengan ujicoba KNN=3 dan dstance Weighting =
Weight by 1/distance didapatkan nilai rata-rata presisi 0,502 dan recall 0,506 serta
F-measure 0,503. Hasil di atas semakin kurang bagus, Nampak bagian paling atas
masih banyak kesalahan klasifikasi yang mencapai 49.4015%. Menjadi lebih buruk
ketika tidak menggunakan distance weighting, namun hasil dari Precision, Recall
dan F-measure juga semakin menurun.
11.

Untuk parameter K = 5 dan distance Weighting = Weight by 1/distance


~ 12 ~

Pada screen shot di atas terlihat dengan ujicoba KNN=5 dan dstance Weighting =
Weight by 1/distance didapatkan nilai rata-rata presisi 0,527 dan recall 0,527 serta
F-measure 0,526. Terjadi perubahan yang semakin bagus, Nampak bagian paling
atas masih banyak kesalahan klasifikasi yang mencapai 47.3%. Menjadi lebih baik
jika dibandingnkan dengan yang tidak menggunakan distance weighting dengan
inputan parameter K=5.
12.

Untuk parameter K = 7 dan distance Weighting = Weight by 1/distance

Pada screen shot di atas terlihat dengan ujicoba KNN=7 dan dstance Weighting =
Weight by 1/distance didapatkan nilai rata-rata presisi 0,528 dan recall 0,528 serta
F-measure 0,532. Terjadi perubahan yang semakin bagus, Nampak bagian paling
atas masih banyak kesalahan klasifikasi yang mencapai 46.8%. Menjadi lebih baik
jika dibandingnkan dengan yang tidak menggunakan distance weighting dengan
inputan parameter K=7.
13.


Untuk parameter K = 9 dan distance Weighting = Weight by 1/distance

~ 13 ~

Pada screen shot di atas terlihat dengan ujicoba KNN=9 dan dstance Weighting =
Weight by 1/distance didapatkan nilai rata-rata presisi 0,536 dan recall 0,54 serta Fmeasure 0,537. Terjadi perubahan yang semakin baik, Nampak bagian paling atas
masih banyak kesalahan klasifikasi yang mencapai 46%. Menjadi lebih baik jika
dibandingnkan dengan yang tidak menggunakan distance weighting dengan
inputan parameter K=9.
14.

Untuk parameter K = 11 dan distance Weighting = Weight by 1/distance

Pada screen shot di atas terlihat dengan ujicoba KNN=11 dan dstance Weighting =
Weight by 1/distance didapatkan nilai rata-rata presisi 0,535 dan recall 0,545 serta
F-measure 0,538. Perubahannya kecil sekali, namun tetap membaik, Nampak
bagian paling atas masih banyak kesalahan klasifikasi yang mencapai 45,5%.
Hasilnya Tipis sekali jika dibandingnkan dengan yang tidak menggunakan distance
weighting dengan inputan parameter K=11.

~ 14 ~

15.

Setelah semuanya selesai, terakhir testing menggunakan cross validation dengan
parameter 10. Hasilnya sebagai berikut:

16.

Inputan parameter K=3 Folds 10

Pada screen shot di atas terlihat dengan ujicoba KNN=3 dan parameter Folds = 10
didapatkan nilai rata-rata presisi 0,516 dan recall 0,514 serta F-measure 0,515.
Terjadi perubahan sangat tipis sekali dari yang sebelumnya yaitu yang hanya
menggunakan variable K saja.

17.

Inputan parameter K=5 Folds 10

~ 15 ~

Pada screen shot di atas terlihat dengan ujicoba KNN=5 dan parameter Folds = 10
didapatkan nilai rata-rata presisi 0,547 dan recall 0,548 serta F-measure 0,548.
Terjadi perubahan yang lumayan besar dari sebelumnya yaitu yang hanya
menggunakan variable K=3 saja. Ini juga menunjukkan hasil yang lebih baik dari
dua uji coba sebelumnya.
18.

Inputan parameter K=7 Folds 10

Pada screen shot di atas terlihat dengan ujicoba KNN=7 dan parameter Folds = 10
didapatkan nilai rata-rata presisi 0,556 dan recall 0,563 serta F-measure 0,558.
Terjadi perubahan yang lumayan besar dari sebelumnya yaitu yang hanya
menggunakan variable K=5 dan K=3. Ini juga menunjukkan hasil yang lebih baik
dari dua uji coba sebelumnya.
19.

Inputan parameter K=9 Folds 10

~ 16 ~

Pada screen shot di atas terlihat dengan ujicoba KNN=9 dan parameter Folds = 10
didapatkan hasil yang tidak jauh berbeda dai sebelumnya dengan nilai rata-rata
presisi 0,554(menurun) dan recall 0,565(naik) serta F-measure 0,558(tetap
Perubahan yang terjadi kecil sekali dari perubahan sebelumnya. Namun hasil nya
tetap lebih baik dari dua uji coba sebelumnya.
20.

KNN=11 Folds 10

Pada screen shot di atas terlihat dengan ujicoba KNN=11 dan parameter Folds = 10
didapatkan hasil yang tidak jauh berbeda dai sebelumnya dengan nilai rata-rata
presisi 0,556 dan recall 0,566 serta F-measure 0,56. Perubahan yang terjadi kecil
sekali dari perubahan sebelumnya. Namun hasil nyatetap lebih baik dari dua uji
coba sebelumnya.
Ujicoba pada data abalone selesai, penjelasan akhirnya akan di jelaskan dalam kesimpulan.
Kini lanjut pada ujicoba data WDBC.

~ 17 ~

b. Data WDBC
Langkah yang dilakukan dalam proses pengklasifikasian sama juga pada Abalone adalah
sebagai berikut:
1.
Buka aplikasi weka lalu, buka file WDBC-training.arff yang sudah dipecah
sebelumnya.

2.

Seperti ujicoba sebelumnya. Kemudian dilakukan uji coba dengan cara
memasukkan nilai KNN=3 dengan menge-klik IBK.

~ 18 ~

Pada screen shot di atas terlihat dengan ujicoba KNN=3 didapatkan nilai rata-rata
pesisi 0,96 dan recall 0,959 serta F-measure 0,959. Hasil di atas sangat bagus
dengan nilai correctly classified instance yang mencapai 95.94%.
3.

Untuk ujicoba dengan parameter K = 5

Pada screen shot di atas terlihat dengan ujicoba KNN=5 didapatkan nilai rata-rata
pesisi 0,943 dan recall 0,941 serta F-measure 0,954. Hasil di atas smenurun dari
ujicoba sebelumnya yang menggunakan parameter K=3. Namun masih sangat
bagus dengan nilai correctly classified instance yang mencapai 94.14%.
4.

Untuk ujicoba dengan parameter K = 7

~ 19 ~

Pada screen shot di atas terlihat dengan ujicoba KNN=7 didapatkan nilai rata-rata
presisi 0,948 dan recall 0,946 serta F-measure 0,946. Hasil di atas meningkat
sedikit dari ujicoba sebelumnya yang menggunakan parameter K=5. Tapi masih
lebih buruk dari K=3. Nilai correctly classified instance yang mencapai 94.59%.
5.

Untuk ujicoba dengan parameter K = 9

Pada screen shot di atas terlihat dengan ujicoba KNN=9 didapatkan nilai rata-rata
presisi 0,948 dan recall 0,946 serta F-measure 0,946. Hasinya sama persis dengan
ujicoba K=7. Nilai correctly classified instance yang mencapai 94.59%.
6.

Untuk ujicoba dengan parameter K = 11

~ 20 ~

Pada screen shot di atas terlihat dengan ujicoba KNN=9 didapatkan nilai rata-rata
presisi 0,949 dan recall 0,946 serta F-measure 0,946. Hasinya hampir sama persis
dengan ujicoba K=7 dan 9. Hanya berbeda pada nilai presisi saja. Nilai correctly
classified instance yang mencapai 94.59%.
Sudah selesai dengan ujicoba merubah KNN, selanjutnya dilakukan perbandingan dengan
tambahan parameter distance weight.
1.

Untuk parameter K = 3 dan distance Weighting = Weight by 1/distance

Pada screen shot di atas terlihat dengan ujicoba KNN=3 dan dstance Weighting =
Weight by 1/distance didapatkan nilai rata-rata presisi 0,96 dan recall 0,959 serta Fmeasure 0,959. Hasil ini persis sama dengan uji coba tanpa menggunaknan
distance weighting
7.

Untuk parameter K = 5 dan distance Weighting = Weight by 1/distance

~ 21 ~

Pada screen shot di atas terlihat dengan ujicoba KNN=5 dan dstance Weighting =
Weight by 1/distance didapatkan nilai rata-rata presisi 0,943 dan recall 0,941 serta
F-measure 0,941. Hasil ini persis sama dengan uji coba tanpa menggunaknan
distance weighting, yang membedakannya hanya hasil F-measure yang beda tipis
8.

Untuk parameter K = 7 dan distance Weighting = Weight by 1/distance

Dari gambar di atas tampak dengan ujicoba KNN=7 dan dstance Weighting =
Weight by 1/distance didapatkan nilai rata-rata presisi 0,95 dan recall 0,948 serta Fmeasure 0,948. Hasil lebih baik dari uji coba sebelumnya. Nilai correctly classified
instance yang mencapai 94.82%.
9.

Untuk parameter K = 9 dan distance Weighting = Weight by 1/distance

~ 22 ~

Pada screen shot di atas terlihat dengan ujicoba KNN=9 dan dstance Weighting =
Weight by 1/distance didapatkan nilai rata-rata presisi 0,953 dan recall 0,95 serta Fmeasure 0,95. Hasil lebih baik dari uji coba sebelumnya. Nilai correctly classified
instance yang mencapai 95.045%.
10.

Untuk parameter K = 11 dan distance Weighting = Weight by 1/distance

Dari gambar di atas tampak dengan ujicoba KNN=11 dan dstance Weighting =
Weight by 1/distance didapatkan nilai rata-rata presisi 0,953 dan recall 0,95 serta Fmeasure 0,95. Hasil persis sama dengan uji coba sebelumnya. Nilai correctly
classified instance yang mencapai 95.045%.
11.

Setelah semuanya selesai, terakhir yaitu uji coba menggunakan cross validation
dengan parameter 10. Hasilnya sebagai berikut:

~ 23 ~

12.

Ujicoba parameter K=3 dan Folds=10

Pada screen shot di atas terlihat dengan ujicoba KNN=3 dan parameter Folds = 10
didapatkan nilai rata-rata presisi 0,968 dan recall 0,968 serta F-measure 0,957
Hasil ini sangat baik dengan tingkat kesalahan klasifikasi hanya 3,2%.
13.

Ujicoba parameter K=5 dan Folds=10

~ 24 ~

Dari gambar di atas terlihat dengan ujicoba KNN=5 dan parameter Folds = 10
didapatkan nilai rata-rata presisi 0,952 dan recall 0,952 serta F-measure 0,952
Hasil ini sangat baik dengan tingkat kesalahan klasifikasi hanya 4,8%. Namun
masihlebih baik yang sebelumnya dengan parameter K=3
14.

Ujicoba parameter K=7 dan Folds=10

Pada screen shot di atas terlihat dengan ujicoba KNN=7 dan parameter Folds = 10
didapatkan nilai rata-rata presisi 0,96 dan recall 0,96 serta F-measure 0,96 Hasil
ini sangat baik dengan tingkat kesalahan klasifikasi hanya 4 %.
15.

Ujicoba parameter K=9 dan Folds=10

~ 25 ~

Dari gambar di atas terlihat dengan ujicoba KNN=9 dan parameter Folds = 10
didapatkan nilai rata-rata presisi 0,96 dan recall 0,96 serta F-measure 0,96 Hasil
ini sangat baik dengan tingkat kesalahan klasifikasi hanya 4 %. Sama persis
dengan uji coba sebelumnya nilak K = 7
16.

Ujicoba parameter K=11 dan Folds=10

Pada screen shot di atas terlihat dengan ujicoba KNN = 7 dan parameter Folds =
10 didapatkan nilai rata-rata presisi 0,96 dan recall 0,96 serta F-measure 0,96. Hsil
ini menjadi terburuk diantara pengujian menggunakan parameter Folds lainnnya
dengan tingkat kesalahan klasifikasi sebesar 6,4%

3. Kesimpulan
Adapun kesimpulan yang dapat diambil dari hasil ujicoba di atas adalah sebagai berikut:

~ 26 ~

1. Data Abalone

K
3
5
7
9
11

K
3
5
7
9
11

K
3
5
7
9
11





No Distance Weighting
Incorrectly Classified

Precision

Recall

F-Measure

48,3%
47,8%
47,55%
46%
45,6%

0,523
0,532
0,525
0,54
0,54

0,517
0,521
0,524
0,54
0,54

0,516
0,523
0,524
0,536
0,539

Incorrectly Classified

Precision

Recall

F-Measure

49,4%
47,33%
46,79%
46,%
45,6%

0,502
0,527
0,528
0,536
0,535

0,506
0,526
0,528
0,54
0,545

0,503
0,515
0,532
0,537
0,538

Distance Weighting

Fold = 10
Incorrectly Classified

Precision

Recall

F-Measure

48,63%
45,15%
43,74%
43,52%
43,4%

0,516
0,547
0,556
0,554
0,556

0,514
0,548
0,563
0,554
0,566

0,515
0,548
0,558
0,558
0,56

Semakin tinggi parameter K yang diberikan, semakin rendah pula tingkat kesalahan
klasifikasinya.
Semakin tinggi nilai K, semakin bagus nilai Precision, recall dan F-measure, namun
ada penurunan pada pemberian nilai K=9 pada parameter Fold=10, nilai precision,
recall dan F-measure-nya menurun
Menggunakan parameter Fold 10 menjadi pilihan yang terbaIk, karena menghasilkan
tingkat kesalahan klasifikasi terkecil

2. Data WDBC

K
3
5

No Distance Weighting
Incorrectly Classified

Precision

Recall

F-Measure

4,05%
5,85%

0,96
0,943

0,959
0,941

0,959
0,954

~ 27 ~

7
9
11

K
3
5
7
9
11

K
3
5
7
9
11





5,4%
5,4%
5,4%

0,948
0,948
0,949

0,946
0,946
0,946

0,945
0,945
0,945

Distance Weighting
Incorrectly Classified

Precision

Recall

F-Measure

4,05%
5,8%
5,18%
4,955%
4,953%

0,96
0,943
0,95
0,953
0,95

0,959
0,941
0,948
0,95
0,95

0,950
0,941
0,948
0,95
0,95

Incorrectly Classified

Precision

Recall

F-Measure

3,2%
6%
4%
4%
6,4%

0,968
0,952
0,96
0,96
0,938

0,968
0,952
0,96
0,96
0,934

0,957
0,952
0,96
0,96
0,93

Fold = 10

Terjadinya keberagaman, untuk parameter No Distance Weigting, semakin besar nilai
K makan semakin bagus hasilnya, namun nilai-nilai antar K=7 sampai k=11 relatif
sama.
Untuk parameter Distance Weighting, nilai terbaik saat nilai K=3, kemudian disusul
saat nilai K=11
Untuk yang berparameter Fold=10, nilai terbaik data K=3, namun selanjutnya tidak
stabil sehingga sulit memutuskan yang terbaik. Namundari ketiga uji coba diatas,
nilai terbaik yang pernah tercipta yaitu pada percobaan Yang berparameter Fold 10
dengan nilai K=3. Menghasilkan tingkat kesalahan paling kecil 3,2%

http://asalasah.blogspot.com/2014/01/di-chechnya-namai-anak-muhammad-dapat-12juta.html

~ 28 ~