BAB IV
ANALISIS DAN PEMBAHASAN
Pada bab ini akan membahas tentang pengujian dari sistem yang dibuat. Pengujian ini dilakukan dengan tujuan untuk mengetahui kelebihan dan kekurangan dari
aplikasi ini.
4.1 Inisialisasi untuk Metode
Perceptron dan Backpropagation
Proses ini diawali dengan memilih menu yang ada pada tampilan utama saat aplikasi dijalankan. Form tampilan menu utama ditunjukkan pada gambar 4.1:
Gambar 4.1. Tampilan Menu Utama
Pada saat menu training dipilih, maka akan tampil sub menu pilihan untuk
memilih salah satu metode yang akan digunakan untuk pelatihan yaitu perceptron dan backpropagation seperti gambar 4.2:
Universitas Sumatera Utara
Gambar 4.2. Tampilan Sub Menu Pilihan
Setelah itu akan masuk ke form training seperti yang ditunjukkan pada gambar 4.3. Untuk training, langkah awal yang harus dilakukan adalah masuk ke tahap
image processing yaitu memilih jenis daun dalam bentuk .bmp atau .jpg melalui tombol open file untuk diproses sehingga dapat dipakai pada proses
pelatihan dan pengenalan.
Gambar 4.3. Tampilan
form training Setelah gambar terbuka, maka proses image akan dijalankan untuk mendapatkan
ekstraksi fitur dari daun seperti yang ditunjukkan pada gambar 4.4:
Universitas Sumatera Utara
Binary image dari gambar daun akan diubah menjadi matriks biner 100 x 100,
dimana warna putih direpresentasikan dengan nilai 1, dan warna hitam dengan nilai 0. Berikut ini adalah hasil gambar yang sudah dikonversikan ke dalam
bentuk matriks biner.
Gambar 4.4. Tampilan daun matriks 100 x 100
Universitas Sumatera Utara
Untuk menyederhanakan perhitungan, matriks 100x100 diubah menjadi matriks 10x10 dengan cara menjumlahkan setiap matriks 10x10 seperti yang ditunjukkan
pada potongan gambar 4.5:
Gambar 4.5. Tampilan penyederhanaa daun matriks 100 x 100
Cara ini berguna untuk mencari tepi daun yang biasanya disebut margin,
menggunakan boundary enhancement. Apabila hasil penjumlahan matriks 10x10=100, maka matriks hasilnya diberi nilai 0, jika antara 1-99, maka matriks
hasilnya diberi nilai 1. Tampilan daun matriks 10x10 disajikan pada gambar 4.6:
0 0 0 0 1 1 0 0 0 0 0 0 1 1 1 1 1 1 0 0
0 0 1 1 1 1 1 1 0 0 0 1 1 1 1 1 1 1 1 0
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
1 1 1 1 1 1 1 1 1 1 0 1 1 1 1 1 1 1 1 0
0 0 0 0 1 1 0 0 0 0 0 0 1 1 0 0 1 1 0 0
0 0 1 0 0 0 0 1 0 0 0 1 1 0 0 0 0 0 1 0
1 1
0 0 0 0 0 0 0 1 1
0 0 0 0 0 0 0 0 1 1
0 0 0 0 0 0 0 0 1 1
0 0 0 0 0 0 0 0 1 1 1
0 0 1 1 0 0 0 1 0 1 1 1 1 1 1 1 1 0
Gambar 4.6. Tampilan daun matriks 10 x 10
Universitas Sumatera Utara
Setiap matriks 10 x 2 yang pertama ditransformasikan menjadi matriks 2x10, kemudian matriks 10x2 yang kedua ditransformasikan menjadi matriks 2x10 dan
ditempatkan di bawah matriks 2x10 yang sebelumnya seperti tabel 4.1:
Tabel 4.1. Hasil Input dari daun
No Input
x
1
x
2
1 2
3 1
4 1
5 1
6 1
7 1
8 1
9 10
11 12
1 13
1 1
14 15
16 17
18 1
19 1
20 21
1 1
22 1
23 24
25 26
27 28
29 30
1 1
Universitas Sumatera Utara
31 1
1 32
33 34
35 36
37 38
39 40
1 1
41 1
42 1
1 43
1 44
1 45
1 1
46 1
1 47
1 48
1 49
1 50
1
Matriks 2x10 diatas merupakan input dari JST, sekaligus merupakan tahap
inisialisasi. Untuk set targetnya, setiap input di OR kan sehingga didapat target
yang ditunjukkan pada tabel 4.2:
Universitas Sumatera Utara
Tabel 4.2. Hasil target menggunakan operasi OR dari input
No Input
Target t
x
1
x
2
x
1
OR
x
2
1 2
3 1
1 4
1 1
5 1
1 6
1 1
7 1
1 8
1 1
9 10
11 12
1 1
13 1
1 1
14 15
16 17
18 1
1 19
1 1
20 21
1 1
1 22
1 1
23 24
25 26
27 28
29 30
1 1
1 31
1 1
1 32
Universitas Sumatera Utara
33 34
35 36
37 38
39 40
1 1
1 41
1 1
42 1
1 1
43 1
1 44
1 1
45 1
1 1
46 1
1 1
47 1
1 48
1 1
49 1
1 50
1 1
4.2
Pelatihan Training Perceptron Pada Daun
Setelah proses ekstraksi fitur dari daun dilakukan, dan telah didapat inisialisasi 2 input x
1
dan x
2
dengan 1 target t, maka tahap selanjutnya adalah melakukan training pada daun. Set nilai acak, dengan nilai threshold
θ=0,5. Learning rate yang digunakan adalah α=0,2. Bobot awal yang dipilih w
1
=0,1 dan w
2
=0,1. Maksimum Epoh=50, nilai error diperoleh dari nilai t-y. Dari Form Training di
bawah ini, tombol yang digunakan untuk melakukan pelatihan adalah tombol training, dan hasilnya dapat dilihat pada bagian hasil training. Seperti gambar 4.7:
Universitas Sumatera Utara
Gambar 4.7. Tampilan form training Perceptron
Pada epoh pertama:
Data ke-1: x
11
= 0; x
21
=0; t
1
Bobot awal, w =0
1
= 0,1 dan w
2
Hasil aktivasi : a =0,1
11
= x
11
w
1
+x
21
w
2
Output : y =00,1+00,1=0
11
= 0, karena a
11
Nilai error : δ
=0 ≤0,5
11
= t
1
-y
11
Bobot akhir: =0-0=0
w
1
= w
1
+αx
11
δ
11
w =0,1+0,200=0,1
2
= w
2
+αx
21
δ
11
Nilai bobot akhir ini akan menjadi nilai bobot awal pada data ke-2. =0,1+0,200=0,1
Data ke-2: x
12
= 0; x
22
=0; t
2
w =0
1
= 0,1 dan w
2
a =0,1
12
= x
12
w
1
+x
22
w
2
y =00,1+10,1=0
12
= 0, karena a
12
=0 ≤0,5
Universitas Sumatera Utara
δ
12
= t
2
-y
12
w =0-0=0
1
= w
1
+αx
12
δ
12
w =0,1+0,200=0,1
2
= w
2
+αx
22
δ
12
=0,1+0,211=0,1
Data ke-3: x
13
= 0; x
23
=1; t
3
w =1
1
=0,1 dan w
2
a =0,1
13
= x
13
w
1
+x
23
w
2
y =00,1+10,1=0,1
13
=0, karena a
13
δ =0,1
≤0,5
13
= t
3
-y
13
w =1-0=1
1
= w
1
+αx
13
δ
13
w =0,1+0,201=0,1
2
= w
2
+αx
23
δ
13
=0,1+0,211=0,3
Demikian seterusnya sampai Data ke-50. Training pada daun jarak di atas, untuk Epoh pertama masih didapatkan nilai error=6. Maka training akan dilanjutkan
pada epoh kedua:
Pada Epoh kedua: Data ke-1:
x
11
=0; x
12
=0; t
1
w =0
1
=0,7 dan w
2
a =0,7
21
=x
11
w
1
+x
12
w
2
y =00,7+00,7=0
21
=0, karena a
21
δ =0
≤0,5
21
=t
1
-y
21
w =0-0=0
1
=w
1
+αx
11
δ
21
w =0,7+0,200=0,7
2
=w
2
+αx
12
δ
21
=0,7+0,200=0,7
Demikian seterusnya sampai Data ke-50. Hasil akhir, dengan Error=0 tercapai pada Epoh kedua. Hasil selengkapnya terlihat pada tabel 4.3:
Universitas Sumatera Utara
Tabel 4.3. Hasil pembelajaran perceptron sampai Epoh ke-2
Epoh Data
ke- Input
Target Bobot 1
a y
error Bobot 2
x x
1
t
2
w w
1
w
2
w
1 2
Epoh Ke 1
1 0,1
0,1 0,1
0,1 2
0,1 0,1
0,1 0,1
3
1 1
0,1 0,1
0,1 1
0,1 0,3
4
1 1
0,1 0,3
0,3 1
0,1 0,5
5
1 1
0,1 0,5
0,1 1
0,3 0,5
6
1 1
0,3 0,5
0,3 1
0,5 0,5
7
1 1
0,5 0,5
0,5 1
0,5 0,7
8
1 1
0,5 0,7
0,7 1
0,5 0,7
9 0,5
0,7 0,5
0,7 10
0,5 0,7
0,5 0,7
11 0,5
0,7 0,5
0,7 12
1 1
0,5 0,7
0,7 1
0,5 0,7
13
1 1
1 0,5
0,7 1,2
1 0,5
0,7 14
0,5 0,7
0,5 0,7
15 0,5
0,7 0,5
0,7 16
0,5 0,7
0,5 0,7
17 0,5
0,7 0,5
0,7 18
1 1
0,5 0,7
0,5 1
0,7 0,7
19
1 1
0,7 0,7
0,7 1
0,7 0,7
20 0,7
0,7 0,7
0,7 21
1 1
1 0,7
0,7 1,4
1 0,7
0,7 22
1 1
0,7 0,7
0,7 1
0,7 0,7
23 0,7
0,7 0,7
0,7 24
0,7 0,7
0,7 0,7
25 0,7
0,7 0,7
0,7 26
0,7 0,7
0,7 0,7
27 0,7
0,7 0,7
0,7 28
0,7 0,7
0,7 0,7
29 0,7
0,7 0,7
0,7 30
1 1
1
0,7 0,7
1,4 1
0,7 0,7
31
1 1
1 0,7
0,7 1,4
1 0,7
0,7 32
0,7 0,7
0,7 0,7
33 0,7
0,7 0,7
0,7 34
0,7 0,7
0,7 0,7
35 0,7
0,7 0,7
0,7 36
0,7 0,7
0,7 0,7
37 0,7
0,7 0,7
0,7 38
0,7 0,7
0,7 0,7
Universitas Sumatera Utara
39 0,7
0,7 0,7
0,7 40
1 1
1 0,7
0,7 1,4
1 0,7
0,7 41
1 1
0,7 0,7
0,7 1
0,7 0,7
42
1 1
1 0,7
0,7 1,4
1 0,7
0,7 43
1 1
0,7 0,7
0,7 1
0,7 0,7
44
1 1
0,7 0,7
0,7 1
0,7 0,7
45
1 1
1 0,7
0,7 1,4
1 0,7
0,7 46
1 1
1 0,7
0,7 1,4
1 0,7
0,7 47
1 1
0,7 0,7
0,7 1
0,7 0,7
48
1 1
0,7 0,7
0,7 1
0,7 0,7
49
1 1
0,7 0,7
0,7 1
0,7 0,7
50
1 1
0,7 0,7
0,7 1
0,7 0,7
Akurasi = 44
Epoh Ke 2
1 0,7
0,7 0,7
0,7 2
0,7 0,7
0,7 0,7
3
1 1
0,7 0,7
0,7 1
0,7 0,7
4
1 1
0,7 0,7
0,7 1
0,7 0,7
5
1 1
0,7 0,7
0,7 1
0,7 0,7
6
1 1
0,7 0,7
0,7 1
0,7 0,7
7
1 1
0,7 0,7
0,7 1
0,7 0,7
8
1 1
0,7 0,7
0,7 1
0,7 0,7
9 0,7
0,7 0,7
0,7 10
0,7 0,7
0,7 0,7
11 0,7
0,7 0,7
0,7 12
1 1
0,7 0,7
0,7 1
0,7 0,7
13
1 1
1 0,7
0,7 1,4
1 0,7
0,7 14
0,7 0,7
0,7 0,7
15 0,7
0,7 0,7
0,7 16
0,7 0,7
0,7 0,7
17 0,7
0,7 0,7
0,7 18
1 1
0,7 0,7
0,7 1
0,7 0,7
19
1 1
0,7 0,7
0,7 1
0,7 0,7
20 0,7
0,7 0,7
0,7 21
1 1
1 0,7
0,7 1,4
1 0,7
0,7 22
1 1
0,7 0,7
0,7 1
0,7 0,7
23 0,7
0,7 0,7
0,7 24
0,7 0,7
0,7 0,7
25 0,7
0,7 0,7
0,7 26
0,7 0,7
0,7 0,7
27 0,7
0,7 0,7
0,7 28
0,7 0,7
0,7 0,7
Universitas Sumatera Utara
4.3
Pelatihan Training Backpropagation Pada daun
Pada training backpropagation ini, inisialisasi untuk input x
1
dan x
2
serta target t, isi datanya sama dengan perceptron di atas. Bobot awal yang
menguhubungkan neuron-neuron pada lapisan input dan lapisan tersembunyi v
11
, v
12
, v
21
, v
22
dan bobot bias v0
1
dan v0
2
dipilih secara acak. Demikian pula bobot awal yang menghubungkan neuron-neuron pada lapisan tersembunyi dan lapisan
output w
1
,w
2
dan bobot bias w
29
juga dipilih secara acak.
0,7 0,7
0,7 0,7
30
1 1
1 0,7
0,7 1,4
1 0,7
0,7 31
1 1
1 0,7
0,7 1,4
1 0,7
0,7 32
0,7 0,7
0,7 0,7
33 0,7
0,7 0,7
0,7 34
0,7 0,7
0,7 0,7
35 0,7
0,7 0,7
0,7 36
0,7 0,7
0,7 0,7
37 0,7
0,7 0,7
0,7 38
0,7 0,7
0,7 0,7
39 0,7
0,7 0,7
0,7 40
1 1
1
0,7 0,7
1,4 1
0,7 0,7
41
1 1
0,7 0,7
0,7 1
0,7 0,7
42
1 1
1 0,7
0,7 1,4
1 0,7
0,7 43
1 1
0,7 0,7
0,7 1
0,7 0,7
44
1 1
0,7 0,7
0,7 1
0,7 0,7
45
1 1
1 0,7
0,7 1,4
1 0,7
0,7 46
1 1
1
0,7 0,7
1,4 1
0,7 0,7
47
1 1
0,7 0,7
0,7 1
0,7 0,7
48
1 1
0,7 0,7
0,7 1
0,7 0,7
49
1 1
0,7 0,7
0,7 1
0,7 0,7
50
1 1
0,7 0,7
0,7 1
0,7 0,7
Akurasi = 50
Universitas Sumatera Utara
Dari Form Training di bawah ini, tombol yang digunakan untuk melakukan pelatihan adalah tombol training, dan hasilnya dapat dilihat pada bagian hasil
training. Seperti yang ditunjukkan pada gambar 4.8:
Gambar 4.8. Tampilan form training Backpropagation
Pada Inisialisasi selanjutnya ditetapkan: Jumlah neuron pada input layer=2
Jumlah neuron pada hidden layer=4 Jumlah neuron pada output layer=1
Learning rate α= 1
Maksimum Epoh=50 Target Error=0,001
Bobot awal ditentukan secara acak: • Bobot Awal input ke hidden
V = 0,9562
0,7762 0,1623
0,2886 0,1962
0,6133 0,0311
0,9711
Universitas Sumatera Utara
• Bobot Awal bias ke hidden V
0,7496 0,3796
0,7256 0,1628
= • Bobot Awal hidden ke output
W = 0,228
0,9585 0,6799
0,555
• Bobot awal bias ke output W
0,9505 =
Epoh ke-1:
Pembelajaran:
Data ke=1 • Operasi pada Hidden layer
Penjumlahan terbobot: z_in
1
= v
01
+ v
11
x
11
+ v
21
x =
0,7496 + 0,9562 0 + 0,1962 0
21
= 0,7496
z_in
2
= v
02
+ v
12
x
11
+ v
22
x =
0,3796 + 0,7762 0+ 0,6133 0
21
= 0,3796
z_in
3
= v
03
+ v
13
x
11
+ v
23
x =
0,7256 + 0,1623 0+ 0,0311 0
21
= 0,7256
z_in
4
= v
04
+ v
14
x
11
+ v
21
x =
0,1628 + 0,2886 0+ 0,9711 0
21
= 0,1628
Universitas Sumatera Utara
Pengaktifan: z
1
6791 ,
1 1
7496 ,
= +
−
e =
z
2
5938 ,
1 1
3796 ,
= +
−
e =
z
3
6738 ,
1 1
7256 ,
= +
−
e =
z
4
5406 ,
1 1
1
1628 ,
= −
+
−
e =
• Operasi pada output layer Perkalian:
y_in = w0 + w1z1 + w2z2 + w3z3 + w4z4
= 0,9505 + 0,22800,6791 + 0,95850,5938 + 0,6799 0,6738 + 0,05500,5406
= 2,1623 Pengaktifan:
y= 8968
, 1
1
1623 ,
2
= +
−
e
Error=0-0,8968=-0,8968 Jumlah Kuadrat Error=-0,8968
2
=0,80428
δ=t
1
+ −
+
− −
in y
in y
e e
_ _
1 1
1 1
1 -y
δ=0-0,8968 08299
, 1
1 1
1 1
1623 ,
2 1623
, 2
− =
+ −
+
− −
e e
Universitas Sumatera Utara
∆w
1
= αδz ∆w
1 1
= 1-0,082990,6791=-0,05636 ∆w
2
= αδz ∆w
2 2
= 1-0,082990,5936=-0,04928 ∆w
3
= αδz ∆w
3 3
= 1-0,082990,6738=-0,05592 ∆w
4
= αδz ∆w
4 4
= 1-0,082990,5406=-0,04486 ∆w
∆w = αδ
2
= 1-0,08299=-0,08299 δ
in1
= δw
1
δ =-0,082990,2280=-0,01893
in2
= δw
2
δ =-0,082990,9585=-0,07955
in3
= δw
3
δ =-0,082990,6799=-0,05642
in4
= δw
4
=-0,082990,0550=-0,00456
δ
1=
δ
in1
+ −
+
− −
1 1
_ _
1 1
1 1
1
in z
in z
e e
δ
1=
00412 ,
1 1
1 1
1
6791 ,
6791 ,
− =
+ −
+
− −
e e
-0,01893 δ
2=
δ
in2
+ −
+
− −
21 2
_ _
1 1
1 1
1
in z
in z
e e
δ
2=
01919 ,
1 1
1 1
1
5983 ,
5938 ,
− =
+ −
+
− −
e e
-0,07955 δ
3=
δ
in3
+ −
+
− −
3 3
_ _
1 1
1 1
1
in z
in z
e e
Universitas Sumatera Utara
δ
1=
01240 ,
1 1
1 1
1
6738 ,
6738 ,
− =
+ −
+
− −
e e
-0,05642
δ
4=
δ
in4
+ −
+
− −
4 4
_ _
1 1
1 1
1
in z
in z
e e
δ
4=
00113 ,
1 1
1 1
1
5406 ,
5406 ,
− =
+ −
+
− −
e e
-0,00456
∆v
11
= αδx
11
Demikian juga ∆v
=1-0,004120=0
12
= ∆v
13
= ∆v
14
= ∆v
21
= ∆v
23
= ∆v
24
∆v =0
01
∆v == αδ1 =1-0,00412=-0,00412
02
∆v == αδ2 =1-0,01919=-0,01919
03
∆v == αδ3 =1-0,01240=-0,01240
04
== αδ4 =1-0,00113=-0,00113
• Bobot Akhir input ke hidden v
11
= v
11
+ ∆v
11
v = 0,9562 + 0 = 0,9562
12
= v
12
+ ∆v
12
v = 0,7762 + 0 = 0,7762
13
= v
13
+ ∆v
13
v = 0,1623 + 0 = 0,1623
14
= v
14
+ ∆v
14
v = 0,2886 + 0 = 0,2886
21
= v
21
+ ∆v
21
v = 0,1962 + 0 = 0,1962
22
= v
22
+ ∆v
22
v = 0,6133 + 0 = 0,6133
23
= v
23
+ ∆v
23
v = 0,0311 + 0 = 0,0311
24
= v
24
+ ∆v
24
= 0,9711 + 0 = 0,9711 • Bobot Akhir bias ke hidden
v
01
= v
01
+ ∆v
01
v = 0,7496 -0,00412 = 0,7455
02
= v
02
+ ∆v
02
v = 0,3796 -0,01919 = 0,3604
03
= v
03
+ ∆v
03
v = 0,7256 -0,01240 = 0,7132
04
= v
04
+ ∆v
04
= 0,1628 -0,00113 = 0,1617
Universitas Sumatera Utara
• Bobot Akhir hidden ke output w
1
= w
1
+ ∆w
1
w =0,2280-0,05636=0,1717
2
= w
2
+ ∆w
2
w =0,9585-0,04928=0,9092
3
= w
3
+ ∆w
3
w =0,6799-0,5592=0,6239
4
= w
4
+ ∆w
4
=0,0550-0,04486=0,0101 • Bobot Akhir bias ke output
w = w
+ ∆w
=0,9505-0,08299=0,8675
Pada data kedua, juga dilakukan operasi-operasi yang sama dengan menggunakan bobot-bobot akhir hasil pengolahan data pertama ini sebagai bobot-bobot
awalnya. Proses ini dilakukan secara berulang sampai pada maksimum epoh 50 atau kuadrat error target error 0,001. Hasil selengkapnya terlihat pada tabel
4.4:
Universitas Sumatera Utara
Tabel 4.4. Hasil pembelajaran backpropagation sampai Epoh ke-41
Epoh Data
ke- x
1
x
2
v
11
v
21
v
01
w
1
v
12
v
22
v
02
w
2
v
13
v
23
v
03
w
3
v
14
v
24
v
04
w
4
w
Epoh 1 1
0,9562 0,1962
0,7496 0,228
0,7762 0,6133
0,3796 0,9585
0,1623 0,0311
0,7256 0,6799
0,2886 0,9711
0,1628 0,5555
0,9505 2
0,9562 0,1962
0,74297 0,12882
0,7762 0,6133
0,3482 0,872
0,1623 0,0311
0,70417 0,58161
0,2886 0,9711
0,1446 0,47617
0,80436 3
1 0,9562
0,19642 0,74319
0,13444 0,7762
0,6148 0,3497
0,87765 0,1623
0,03211 0,70518
0,58689 0,2886
0,97191 0,14541
0,48205 0,81217
4 1
0,9562 0,19664
0,74341 0,13983
0,7762 0,61625
0,35115 0,88308
0,1623 0,03309
0,70616 0,59196
0,2886 0,9727
0,1462 0,4877
0,81967 5
1 0,95641
0,19664 0,74362
0,14602 0,77761
0,61625 0,35256
0,88861 0,16326
0,03309 0,70712
0,59712 0,28942
0,9727 0,14702
0,49215 0,82699
6 1
0,95662 0,19664
0,74383 0,15195
0,77897 0,61625
0,35392 0,89391
0,16419 0,03309
0,70805 0,60207
0,29021 0,9727
0,14781 0,49641
0,83401 7
1 0,95662
0,19686 0,74405
0,15673 0,77897
0,61756 0,35523
0,89873 0,16419
0,03398 0,70894
0,60657 0,29021
0,97342 0,14853
0,50142 0,84065
8 1
0,95662 0,19708
0,74427 0,16134
0,77897 0,61883
0,3565 0,90338
0,16419 0,03485
0,70981 0,61091
0,29021 0,97412
0,14923 0,50625
0,84705 9
0,95662 0,19708
0,7413 0,10537
0,77897 0,61883
0,33938 0,85482
0,16419 0,03485
0,69852 0,55556
0,29021 0,97412
0,1395 0,4619
0,76449 10
0,95662 0,19708
0,73906 0,04085
0,77897 0,61883
0,32066 0,79919
0,16419 0,03485
0,68666 0,49193
0,29021 0,97412
0,12925 0,41095
0,66923 11
0,95662 0,19708
0,73805 -0,03365
0,77897 0,61883
0,30041 0,7354
0,16419 0,03485
0,67452 0,4187
0,29021 0,97412
0,1187 0,35235
0,55915 12
1 0,95662
0,19691 0,73788
-0,01693 0,77897
0,62261 0,30419
0,75204 0,16419
0,03703 0,6767
0,43431 0,29021
0,97591 0,12049
0,36979 0,58243
13 1
1 0,95656
0,19685 0,73782
-0,00209 0,78167
0,62531 0,30689
0,76649 0,16583
0,03867 0,67834
0,44637 0,29156
0,97726 0,12184
0,38345 0,59951
14 0,95656
0,19685 0,73788
-0,08312 0,78167
0,62531 0,28574
0,69749 0,16583
0,03867 0,66634
0,36691 0,29156
0,97726 0,11113
0,31992 0,47974
15 0,95656
0,19685 0,74039
-0,17464 0,78167
0,62531 0,26397
0,62024 0,16583
0,03867 0,65519
0,27752 0,29156
0,97726 0,10103
0,24851 0,34445
16 0,95656
0,19685 0,7461
-0,27369 0,78167
0,62531 0,24301
0,5375 0,16583
0,03867 0,64606
0,18123 0,29156
0,97726 0,09254
0,17168 0,19816
17 0,95656
0,19685 0,75507
-0,37319 0,78167
0,62531 0,22477
0,45528 0,16583
0,03867 0,64008
0,08499 0,29156
0,97726 0,08666
0,09495 0,05147
18 1
0,94773 0,19685
0,74624 -0,27782
0,79291 0,62531
0,23601 0,53773
0,16796 0,03867
0,64221 0,16282
0,29401 0,97726
0,08911 0,16177
0,16407 19
1 0,94773
0,19175 0,74114
-0,21786 0,79291
0,63523 0,24593
0,59629 0,16796
0,04171 0,64525
0,21813 0,29401
0,9802 0,09205
0,22374 0,24738
20 0,94773
0,19175 0,74835
-0,31819 0,79291
0,63523 0,2255
0,51315 0,16796
0,04171 0,63798
0,12096 0,29401
0,9802 0,0843
0,14626 0,09923
21 1
1 0,94162
0,18564 0,74224
-0,23809 0,80288
0,6452 0,23547
0,59057 0,17043
0,04418 0,64045
0,18553 0,2969
0,98309 0,08719
0,21963 0,19146
22 1
0,93788 0,18564
0,7385 -0,17518
0,81252 0,6452
0,24511 0,64566
0,17351 0,04418
0,64353 0,23717
0,30065 0,98309
0,09094 0,26401
0,26606 23
0,93788 0,18564
0,74428 -0,27503
0,81252 0,6452
0,22307 0,56288
0,17351 0,04418
0,63566 0,14043
0,30065 0,98309
0,08184 0,18688
0,1185 24
0,93788 0,18564
0,75317 -0,37318
0,81252 0,6452
0,20419 0,48246
0,17351 0,04418
0,63108 0,04577
0,30065 0,98309
0,07551 0,11154
-0,02628 25
0,93788 0,18564
0,76395 -0,46118
0,81252 0,6452
0,18971 0,41116
0,17351 0,04418
0,62975 -0,03871
0,30065 0,98309
0,07213 0,04438
-0,1557 26
0,93788 0,18564
0,77505 -0,53481
0,81252 0,6452
0,17941 0,35209
0,17351 0,04418
0,63069 -0,10913
0,30065 0,98309
0,07101 -0,01153
-0,26364 27
0,93788 0,18564
0,78549 -0,59476
0,81252 0,6452
0,17225 0,30439
0,17351 0,04418
0,63284 -0,16627
0,30065 0,98309
0,07125 -0,05686
-0,3512 28
0,93788 0,18564
0,79492 -0,64364
0,81252 0,6452
0,16722 0,26575
0,17351 0,04418
0,6355 -0,21275
0,30065 0,98309
0,0722 -0,09371
-0,42236 29
0,93788 0,18564
0,80334 -0,68412
0,81252 0,6452
0,16359 0,23392
0,17351 0,04418
0,63831 -0,25116
0,30065 0,98309
0,07349 -0,12415
-0,48112 30
1 1
0,9182 0,16596
0,78366 -0,5633
0,81935 0,65203
0,17042 0,34949
0,16581 0,03648
0,63061 -0,15402
0,29697 0,97941
0,06981 -0,01407
-0,34271 31
1 1
0,90082 0,14858
0,76628 -0,43503
0,83026 0,66294
0,18133 0,47355
0,16075 0,03142
0,62555 -0,05081
0,29652 0,97896
0,06936 0,10343
-0,19463 32
0,90082 0,14858
0,777 -0,51044
0,83026 0,66294
0,16918 0,41332
0,16075 0,03142
0,62681 -0,12278
0,29652 0,97896
0,06669 0,04629
-0,30509 33
0,90082 0,14858
0,78721 -0,57192
0,83026 0,66294
0,16055 0,36465
0,16075 0,03142
0,62929 -0,18128
0,29652 0,97896
0,06572 -0,00009
-0,39485 34
0,90082 0,14858
0,79649 -0,62201
0,83026 0,66294
0,15437 0,32528
0,16075 0,03142
0,63226 -0,22883
0,29652 0,97896
0,06572 -0,03773
-0,46775 35
0,90082 0,14858
0,80481 -0,66341
0,83026 0,66294
0,14982 0,29293
0,16075 0,03142
0,63536 -0,26806
0,29652 0,97896
0,06625 -0,06875
-0,52782 36
0,90082 0,14858
0,81225 -0,69824
0,83026 0,66294
0,14638 0,26584
0,16075 0,03142
0,6384 -0,30101
0,29652 0,97896
0,06706 -0,09479
-0,57822 37
0,90082 0,14858
0,81893 -0,72807
0,83026 0,66294
0,14371 0,24273
0,16075 0,03142
0,64132 -0,3292
0,29652 0,97896
0,06801 -0,11705
-0,62129 38
0,90082 0,14858
0,82498 -0,75402
0,83026 0,66294
0,1416 0,22269
0,16075 0,03142
0,64409 -0,3537
0,29652 0,97896
0,06903 -0,13639
-0,65869 39
0,90082 0,14858
0,83049 -0,7769
0,83026 0,66294
0,13989 0,20508
0,16075 0,03142
0,64671 -0,37527
0,29652 0,97896
0,07008 -0,15341
-0,69159 40
1 1
0,8818 0,12956
0,81147 -0,67491
0,83534 0,66802
0,14497 0,30343
0,15096 0,02163
0,63692 -0,29319
0,29265 0,97509
0,06621 -0,06014
-0,57403 41
1 0,86217
0,12956 0,79184
-0,55807 0,84456
0,66802 0,15419
0,40402 0,14193
0,02163 0,62789
-0,19811 0,29074
0,97509 0,0643
0,0213 -0,43571
42 1
1 0,84487
0,11226 0,77454
-0,43124 0,85716
0,68062 0,16679
0,52863 0,1354
0,0151 0,62136
-0,09617 0,29142
0,97577 0,06498
0,13847 -0,28756
43 1
0,84487 0,09936
0,76164 -0,33543
0,85716 0,69648
0,18265 0,62333
0,1354 0,01217
0,61843 -0,00769
0,29142 0,97987
0,06908 0,23845
-0,15227 44
1 0,84487
0,09121 0,75349
-0,25835 0,85716
0,7116 0,19777
0,70082 0,1354
0,01198 0,61824
0,06388 0,29142
0,98559 0,0748
0,31967 -0,0426
45 1
1 0,84061
0,08695 0,74923
-0,19217 0,86867
0,72311 0,20928
0,76777 0,13652
0,0131 0,61936
0,11739 0,29679
0,99096 0,08017
0,38195 0,03579
46 1
1 0,83826
0,0846 0,74688
-0,1431 0,87802
0,73246 0,21863
0,81776 0,13804
0,01462 0,62088
0,15718 0,30155
0,99572 0,08493
0,42837 0,09403
47 1
0,83826 0,08293
0,74521 -0,10656
0,87802 0,7419
0,22807 0,85559
0,13804 0,01647
0,62273 0,19146
0,30155 1,00062
0,08983 0,46753
0,14648
Universitas Sumatera Utara
48 1
0,83826 0,08192
0,7442 -0,07669
0,87802 0,74997
0,23614 0,88671
0,13804 0,01832
0,62458 0,21955
0,30155 1,005
0,09421 0,49965
0,1894 49
1 0,83826
0,08131 0,74359
-0,05163 0,87802
0,75698 0,24315
0,91295 0,13804
0,0201 0,62636
0,24316 0,30155
1,00892 0,09813
0,52667 0,22542
50 1
0,83789 0,08131
0,74322 -0,0238
0,88468 0,75698
0,24981 0,93825
0,13986 0,0201
0,62818 0,26605
0,30559 1,00892
0,10217 0,54675
0,25897 Kuadrat error rata-rata
0,2658 Epoh
Data ke-
x
1
x
2
v
11
v
21
v
01
w
1
v
12
v
22
v
02
w
2
v
13
v
23
v
03
w
3
v
14
v
24
v
04
w
4
w
Epoh 2 1
0,83789 0,08131
0,74394 -0,11555
0,88468 0,75698
0,22043 0,86215
0,13986 0,0201
0,62007 0,17776
0,30559 1,00892
0,08488 0,4756
0,12358 2
0,83789 0,08131
0,74772 -0,21476
0,88468 0,75698
0,1912 0,78094
0,13986 0,0201
0,61421 0,08261
0,30559 1,00892
0,06861 0,39933
-0,02276 3
1 0,83789
0,07795 0,74436
-0,16571 0,88468
0,7691 0,20332
0,83172 0,13986
0,02141 0,61552
0,12866 0,30559
1,01506 0,07475
0,4519 0,0477
4 1
0,83789 0,07591
0,74232 -0,12713
0,88468 0,77925
0,21347 0,87202
0,13986 0,02302
0,61713 0,16499
0,30559 1,02053
0,08022 0,49346
0,10324 5
1 0,83656
0,07591 0,74099
-0,08625 0,89405
0,77925 0,22284
0,90899 0,14167
0,02302 0,61894
0,19855 0,31116
1,02053 0,08579
0,52281 0,15254
6 1
0,83582 0,07591
0,74025 -0,05274
0,90205 0,77925
0,23084 0,93945
0,14346 0,02302
0,62073 0,2261
0,316 1,02053
0,09063 0,54699
0,19297 7
1 0,83582
0,07554 0,73988
-0,03111 0,90205
0,78567 0,23726
0,96231 0,14346
0,02461 0,62232
0,24655 0,316
1,02424 0,09434
0,57046 0,22416
8 1
0,83582 0,07535
0,73969 -0,01231
0,90205 0,79139
0,24298 0,98226
0,14346 0,02611
0,62382 0,26435
0,316 1,02761
0,09771 0,5909
0,25128 9
0,83582 0,07535
0,74006 -0,1026
0,90205 0,79139
0,21267 0,90751
0,14346 0,02611
0,61588 0,1775
0,316 1,02761
0,0793 0,52095
0,11789 10
0,83582 0,07535
0,74339 -0,20099
0,90205 0,79139
0,1821 0,82714
0,14346 0,02611
0,61006 0,08314
0,316 1,02761
0,0616 0,44541
-0,02744 11
0,83582 0,07535
0,75001 -0,30089
0,90205 0,79139
0,15378 0,74675
0,14346 0,02611
0,6073 -0,01238
0,316 1,02761
0,04623 0,36944
-0,17484 12
1 0,83582
0,06901 0,74367
-0,23496 0,90205
0,80698 0,16937
0,81503 0,14346
0,02585 0,60704
0,04956 0,316
1,03526 0,05388
0,4401 -0,08003
13 1
1 0,8326
0,06579 0,74045
-0,18035 0,9131
0,81803 0,18042
0,87151 0,14418
0,02657 0,60776
0,09416 0,32212
1,04138 0,06
0,49239 -0,01491
14 0,8326
0,06579 0,74641
-0,28061 0,9131
0,81803 0,15044
0,79081 0,14418
0,02657 0,60462
-0,0017 0,32212
1,04138 0,04293
0,41614 -0,16298
15 0,8326
0,06579 0,75517
-0,37542 0,9131
0,81803 0,12471
0,71569 0,14418
0,02657 0,60467
-0,09208 0,32212
1,04138 0,0293
0,34477 -0,30274
16 0,8326
0,06579 0,7653
-0,45771 0,9131
0,81803 0,10452
0,65145 0,14418
0,02657 0,60718
-0,1703 0,32212
1,04138 0,01952
0,28341 -0,4237
17 0,8326
0,06579 0,77545
-0,52557 0,9131
0,81803 0,0894
0,59914 0,14418
0,02657 0,611
-0,23466 0,32212
1,04138 0,01291
0,23321 -0,52313
18 1
0,81628 0,06579
0,75913 -0,40304
0,93243 0,81803
0,10873 0,70672
0,13648 0,02657
0,6033 -0,13461
0,33001 1,04138
0,0208 0,31895
-0,37606 19
1 0,81628
0,0546 0,74794
-0,31609 0,93243
0,83752 0,12822
0,79631 0,13648
0,02278 0,59951
-0,05301 0,33001
1,05009 0,02951
0,41187 -0,25101
20 0,81628
0,0546 0,75731
-0,40616 0,93243
0,83752 0,10358
0,72571 0,13648
0,02278 0,6011
-0,13868 0,33001
1,05009 0,01669
0,34453 -0,38372
21 1
1 0,80606
0,04438 0,74709
-0,30644 0,95047
0,85556 0,12162
0,82913 0,13279
0,01909 0,59741
-0,05739 0,3388
1,05888 0,02548
0,44017 -0,26442
22 1
0,79941 0,04438
0,74044 -0,22191
0,969 0,85556
0,14015 0,90542
0,13148 0,01909
0,5961 0,01171
0,34914 1,05888
0,03582 0,5006
-0,16201 23
0,79941 0,04438
0,74762 -0,31995
0,969 0,85556
0,10961 0,82796
0,13148 0,01909
0,59572 -0,08165
0,34914 1,05888
0,01882 0,4269
-0,3068 24
0,79941 0,04438
0,75688 -0,40787
0,969 0,85556
0,08458 0,75964
0,13148 0,01909
0,59811 -0,16516
0,34914 1,05888
0,00584 0,36152
-0,43634 25
0,79941 0,04438
0,76673 -0,48157
0,969 0,85556
0,06535 0,70322
0,13148 0,01909
0,60215 -0,23501
0,34914 1,05888
-0,00335 0,30722
-0,54461 26
0,79941 0,04438
0,77618 -0,54169
0,969 0,85556
0,05086 0,65776
0,13148 0,01909
0,60682 -0,2919
0,34914 1,05888
-0,00971 0,26326
-0,63266 27
0,79941 0,04438
0,78484 -0,59084
0,969 0,85556
0,0398 0,62097
0,13148 0,01909
0,61155 -0,33835
0,34914 1,05888
-0,01415 0,22755
-0,70442 28
0,79941 0,04438
0,79266 -0,63164
0,969 0,85556
0,03115 0,59067
0,13148 0,01909
0,61608 -0,37687
0,34914 1,05888
-0,01733 0,19805
-0,76384 29
0,79941 0,04438
0,7997 -0,6661
0,969 0,85556
0,02421 0,56525
0,13148 0,01909
0,62033 -0,40937
0,34914 1,05888
-0,01966 0,17324
-0,8139 30
1 1
0,77933 0,0243
0,77962 -0,54625
0,98586 0,87242
0,04107 0,68882
0,11843 0,00604
0,60728 -0,31159
0,35444 1,06418
-0,01436 0,2877
-0,67088 31
1 1
0,76242 0,00739
0,76271 -0,42481
1,00684 0,8934
0,06205 0,81613
0,10823 -0,00416
0,59708 -0,21276
0,36344 1,07318
-0,00536 0,40522
-0,52451 32
0,76242 0,00739
0,77236 -0,49428
1,00684 0,8934
0,04259 0,76361
0,10823 -0,00416
0,60197 -0,27847
0,36344 1,07318
-0,01506 0,35441
-0,62639 33
0,76242 0,00739
0,78147 -0,55083
1,00684 0,8934
0,02779 0,72139
0,10823 -0,00416
0,60716 -0,33189
0,36344 1,07318
-0,02195 0,31338
-0,70907 34
0,76242 0,00739
0,78977 -0,59725
1,00684 0,8934
0,01634 0,68709
0,10823 -0,00416
0,61223 -0,37569
0,36344 1,07318
-0,02694 0,27992
-0,77674 35
0,76242 0,00739
0,79726 -0,63599
1,00684 0,8934
0,00725 0,6587
0,10823 -0,00416
0,617 -0,41221
0,36344 1,07318
-0,03065 0,25214
-0,83306 36
0,76242 0,00739
0,80401 -0,66887
1,00684 0,8934
-0,00013 0,63477
0,10823 -0,00416
0,62143 -0,44318
0,36344 1,07318
-0,03348 0,22866
-0,88075 37
0,76242 0,00739
0,81012 -0,69726
1,00684 0,8934
-0,00626 0,61422
0,10823 -0,00416
0,62553 -0,46991
0,36344 1,07318
-0,03569 0,20846
-0,92185 38
0,76242 0,00739
0,81569 -0,72213
1,00684 0,8934
-0,01145 0,59631
0,10823 -0,00416
0,62933 -0,49332
0,36344 1,07318
-0,03745 0,19081
-0,95779 39
0,76242 0,00739
0,8208 -0,7442
1,00684 0,8934
-0,01591 0,58049
0,10823 -0,00416
0,63287 -0,51408
0,36344 1,07318
-0,03888 0,17519
-0,98962 40
1 1
0,7417 -0,01333
0,80008 -0,63478
1,02276 0,90932
0,00001 0,69484
0,0931 -0,01929
0,61774 -0,42499
0,36837 1,07811
-0,03395 0,28081
-0,85789 41
1 0,72233
-0,01333 0,78071
-0,51618 1,04467
0,90932 0,02192
0,80074 0,0794
-0,01929 0,60404
-0,32844 0,37767
1,07811 -0,02465
0,36472 -0,71391
42 1
1 0,7067
-0,02896 0,76508
-0,39998 1,06832
0,93297 0,04557
0,9258 0,06889
-0,0298 0,59353
-0,23442 0,38875
1,08919 -0,01357
0,47965 -0,57151
43 1
0,7067 -0,03991
0,75413 -0,31716
1,06832 0,95788
0,07048 1,01484
0,06889 -0,0363
0,58703 -0,15635
0,38875 1,10201
-0,00075 0,571
-0,44901
Universitas Sumatera Utara
44 1
0,7067 -0,04667
0,74737 -0,25321
1,06832 0,97905
0,09165 1,08501
0,06889 -0,03967
0,58366 -0,09592
0,38875 1,11386
0,0111 0,64249
-0,35375 45
1 1
0,70341 -0,04996
0,74408 -0,20429
1,08193 0,99266
0,10526 1,13948
0,06757 -0,04099
0,58234 -0,05643
0,39706 1,12217
0,01941 0,6924
-0,29286 46
1 1
0,70137 -0,052
0,74204 -0,16681
1,09288 1,00361
0,11621 1,18148
0,06697 -0,04159
0,58174 -0,02615
0,40392 1,12903
0,02627 0,73089
-0,24611 47
1 0,70137
-0,05381 0,74023
-0,13459 1,09288
1,01605 0,12865
1,21796 0,06697
-0,04188 0,58145
0,00442 0,40392
1,13671 0,03395
0,76768 -0,19773
48 1
0,70137 -0,05501
0,73903 -0,10809
1,09288 1,02659
0,13919 1,24817
0,06697 -0,04184
0,58149 0,02958
0,40392 1,14334
0,04058 0,79808
-0,1579 49
1 0,70137
-0,05582 0,73822
-0,08577 1,09288
1,03568 0,14828
1,27377 0,06697
-0,04162 0,58171
0,05079 0,40392
1,14915 0,04639
0,82379 -0,12432
50 1
0,70074 -0,05582
0,73759 -0,05784
1,10238 1,03568
0,15778 1,30058
0,06736 -0,04162
0,5821 0,07348
0,41041 1,14915
0,05288 0,84489
-0,08977 Kuadrat error rata-rata
0,2224 Epoh 3
Kuadrat error rata-rata 0,1871
Epoh 4 Kuadrat error rata-rata
0,1394 Epoh 5
Kuadrat error rata-rata 0,0909
Epoh 6 Kuadrat error rata-rata
0,0558 Epoh 7
Kuadrat error rata-rata 0,0352
Epoh 8 Kuadrat error rata-rata
0,0237 Epoh 9
Kuadrat error rata-rata 0,017
Epoh 10 Kuadrat error rata-rata
0,0128 Epoh 11
Kuadrat error rata-rata 0,0101
Epoh 12 Kuadrat error rata-rata
0,0082 Epoh 13
Kuadrat error rata-rata 0,0068
Epoh 14 Kuadrat error rata-rata
0,0058 Epoh 15
Kuadrat error rata-rata 0,005
Epoh 16 Kuadrat error rata-rata
0,0044 Epoh 17
Kuadrat error rata-rata 0,0039
Epoh 18 Kuadrat error rata-rata
0,0035 Epoh 19
Kuadrat error rata-rata 0,0032
Epoh 20 Kuadrat error rata-rata
0,0029 Epoh 21
Kuadrat error rata-rata 0,0027
Epoh 22 Kuadrat error rata-rata
0,0025 Epoh 23
Kuadrat error rata-rata 0,0023
Epoh 24 Kuadrat error rata-rata
0,0021 Epoh 25
Kuadrat error rata-rata 0,002
Epoh 26 Kuadrat error rata-rata
0,0019 Epoh 27
Kuadrat error rata-rata 0,0018
Epoh 28 Kuadrat error rata-rata
0,0017 Epoh 29
Kuadrat error rata-rata 0,0016
Epoh 30 Kuadrat error rata-rata
0,0015 Epoh 31
Kuadrat error rata-rata 0,0014
Epoh 32 Kuadrat error rata-rata
0,0013 Epoh 33
Kuadrat error rata-rata 0,0013
Epoh 34 Kuadrat error rata-rata
0,0012 Epoh 35
Kuadrat error rata-rata 0,0012
Epoh 36 Kuadrat error rata-rata
0,0011 Epoh 37
Kuadrat error rata-rata 0,0011
Epoh 38 Kuadrat error rata-rata
0,001 Epoh 39
Kuadrat error rata-rata 0,001
Epoh 40 Kuadrat error rata-rata
0,001
Universitas Sumatera Utara
Epoh Data ke-
x
1
x
2
v
11
v
21
v
01
w
1
v
12
v
22
v
02
w
2
v
13
v
23
v
03
w
3
v
14
v
24
v
04
w
4
w
Epoh 41 1
-0,35401 -1,02582
0,93403 -1,63181
4,01532 3,77816
-1,87605 5,00966
-1,31077 -1,2672
0,76611 -2,34083
2,40273 2,9593
-1,17595 3,41151
-2,12765 2
-0,35401 -1,02582
0,93437 -1,6325
4,01532 3,77816
-1,87724 5,00953
-1,31077 -1,2672
0,76661 -2,34148
2,40273 2,9593
-1,17675 3,41128
-2,12861 3
1 -0,35401
-1,02615 0,93404
-1,63209 4,01532
3,77905 -1,87635
5,01027 -1,31077
-1,26768 0,76613
-2,34116 2,40273
2,95991 -1,17614
3,41201 -2,12775
4 1
-0,35401 -1,02648
0,93371 -1,63169
4,01532 3,77993
-1,87547 5,011
-1,31077 -1,26816
0,76565 -2,34084
2,40273 2,96051
-1,17554 3,41273
-2,12691 5
1 -0,35468
-1,02648 0,93304
-1,63053 4,01719
3,77993 -1,8736
5,01262 -1,3118
-1,26816 0,76462
-2,34018 2,40407
2,96051 -1,1742
3,41413 -2,1251
6 1
-0,35534 -1,02648
0,93238 -1,62939
4,01902 3,77993
-1,87177 5,01421
-1,31281 -1,26816
0,76361 -2,33953
2,40538 2,96051
-1,17289 3,41551
-2,12332 7
1 -0,35534
-1,02679 0,93207
-1,629 4,01902
3,78078 -1,87092
5,01492 -1,31281
-1,26862 0,76315
-2,33922 2,40538
2,96109 -1,17231
3,41621 -2,1225
8 1
-0,35534 -1,0271
0,93176 -1,62861
4,01902 3,78163
-1,87007 5,01563
-1,31281 -1,26908
0,76269 -2,33891
2,40538 2,96167
-1,17173 3,4169
-2,12169 9
-0,35534 -1,0271
0,93212 -1,62933
4,01902 3,78163
-1,87131 5,0155
-1,31281 -1,26908
0,76321 -2,33959
2,40538 2,96167
-1,17257 3,41666
-2,12269 10
-0,35534 -1,0271
0,93248 -1,63004
4,01902 3,78163
-1,87255 5,01537
-1,31281 -1,26908
0,76373 -2,34027
2,40538 2,96167
-1,17341 3,41643
-2,12368 11
-0,35534 -1,0271
0,93283 -1,63074
4,01902 3,78163
-1,87377 5,01524
-1,31281 -1,26908
0,76424 -2,34094
2,40538 2,96167
-1,17423 3,4162
-2,12466 12
1 -0,35534
-1,02741 0,93252
-1,63035 4,01902
3,78248 -1,87292
5,01595 -1,31281
-1,26954 0,76378
-2,34063 2,40538
2,96225 -1,17365
3,4169 -2,12384
13 1
1 -0,35535
-1,02742 0,93251
-1,63034 4,01905
3,78251 -1,87289
5,01598 -1,31282
-1,26955 0,76377
-2,34063 2,4054
2,96227 -1,17363
3,41693 -2,12381
14 -0,35535
-1,02742 0,93286
-1,63104 4,01905
3,78251 -1,87411
5,01585 -1,31282
-1,26955 0,76428
-2,3413 2,4054
2,96227 -1,17446
3,4167 -2,12479
15 -0,35535
-1,02742 0,93321
-1,63174 4,01905
3,78251 -1,87532
5,01572 -1,31282
-1,26955 0,76479
-2,34196 2,4054
2,96227 -1,17528
3,41647 -2,12576
16 -0,35535
-1,02742 0,93356
-1,63243 4,01905
3,78251 -1,87653
5,01559 -1,31282
-1,26955 0,76529
-2,34262 2,4054
2,96227 -1,17609
3,41624 -2,12673
17 -0,35535
-1,02742 0,93391
-1,63312 4,01905
3,78251 -1,87773
5,01546 -1,31282
-1,26955 0,76579
-2,34328 2,4054
2,96227 -1,1769
3,41601 -2,12769
18 1
-0,35601 -1,02742
0,93325 -1,63198
4,0209 3,78251
-1,87588 5,01706
-1,31383 -1,26955
0,76478 -2,34263
2,40672 2,96227
-1,17558 3,41739
-2,1259 19
1 -0,35601
-1,02773 0,93294
-1,63159 4,0209
3,78336 -1,87503
5,01777 -1,31383
-1,27001 0,76432
-2,34232 2,40672
2,96285 -1,175
3,41809 -2,12508
20 -0,35601
-1,02773 0,93329
-1,63229 4,0209
3,78336 -1,87624
5,01764 -1,31383
-1,27001 0,76483
-2,34298 2,40672
2,96285 -1,17582
3,41786 -2,12605
21 1
1 -0,35602
-1,02774 0,93328
-1,63228 4,02093
3,78339 -1,87621
5,01767 -1,31384
-1,27002 0,76482
-2,34298 2,40674
2,96287 -1,1758
3,41789 -2,12602
22 1
-0,35667 -1,02774
0,93263 -1,63116
4,02274 3,78339
-1,8744 5,01924
-1,31483 -1,27002
0,76383 -2,34234
2,40803 2,96287
-1,17451 3,41925
-2,12427 23
-0,35667 -1,02774
0,93298 -1,63186
4,02274 3,78339
-1,87561 5,01911
-1,31483 -1,27002
0,76434 -2,343
2,40803 2,96287
-1,17533 3,41902
-2,12524 24
-0,35667 -1,02774
0,93333 -1,63255
4,02274 3,78339
-1,87682 5,01898
-1,31483 -1,27002
0,76485 -2,34366
2,40803 2,96287
-1,17615 3,41879
-2,12621 25
-0,35667 -1,02774
0,93368 -1,63324
4,02274 3,78339
-1,87802 5,01885
-1,31483 -1,27002
0,76535 -2,34432
2,40803 2,96287
-1,17696 3,41856
-2,12717 26
-0,35667 -1,02774
0,93402 -1,63393
4,02274 3,78339
-1,87921 5,01872
-1,31483 -1,27002
0,76585 -2,34497
2,40803 2,96287
-1,17776 3,41834
-2,12813 27
-0,35667 -1,02774
0,93436 -1,63461
4,02274 3,78339
-1,88039 5,01859
-1,31483 -1,27002
0,76635 -2,34562
2,40803 2,96287
-1,17856 3,41812
-2,12908 28
-0,35667 -1,02774
0,9347 -1,63529
4,02274 3,78339
-1,88157 5,01847
-1,31483 -1,27002
0,76684 -2,34626
2,40803 2,96287
-1,17935 3,4179
-2,13002 29
-0,35667 -1,02774
0,93504 -1,63596
4,02274 3,78339
-1,88274 5,01835
-1,31483 -1,27002
0,76733 -2,3469
2,40803 2,96287
-1,18014 3,41768
-2,13096 30
1 1
-0,35668 -1,02775
0,93503 -1,63595
4,02277 3,78342
-1,88271 5,01838
-1,31484 -1,27003
0,76732 -2,3469
2,40805 2,96289
-1,18012 3,41771
-2,13093 31
1 1
-0,35669 -1,02776
0,93502 -1,63594
4,0228 3,78345
-1,88268 5,01841
-1,31485 -1,27004
0,76731 -2,3469
2,40807 2,96291
-1,1801 3,41774
-2,1309 32
-0,35669 -1,02776
0,93535 -1,63661
4,0228 3,78345
-1,88384 5,01829
-1,31485 -1,27004
0,7678 -2,34754
2,40807 2,96291
-1,18088 3,41752
-2,13183 33
-0,35669 -1,02776
0,93568 -1,63727
4,0228 3,78345
-1,88499 5,01817
-1,31485 -1,27004
0,76828 -2,34817
2,40807 2,96291
-1,18166 3,4173
-2,13276 34
-0,35669 -1,02776
0,93601 -1,63793
4,0228 3,78345
-1,88614 5,01805
-1,31485 -1,27004
0,76876 -2,3488
2,40807 2,96291
-1,18243 3,41708
-2,13368 35
-0,35669 -1,02776
0,93634 -1,63859
4,0228 3,78345
-1,88728 5,01793
-1,31485 -1,27004
0,76924 -2,34942
2,40807 2,96291
-1,1832 3,41687
-2,13459 36
-0,35669 -1,02776
0,93667 -1,63924
4,0228 3,78345
-1,88841 5,01781
-1,31485 -1,27004
0,76971 -2,35004
2,40807 2,96291
-1,18396 3,41666
-2,1355 37
-0,35669 -1,02776
0,937 -1,63989
4,0228 3,78345
-1,88954 5,01769
-1,31485 -1,27004
0,77018 -2,35066
2,40807 2,96291
-1,18472 3,41645
-2,1364 38
-0,35669 -1,02776
0,93732 -1,64053
4,0228 3,78345
-1,89066 5,01757
-1,31485 -1,27004
0,77065 -2,35127
2,40807 2,96291
-1,18547 3,41624
-2,1373 39
-0,35669 -1,02776
0,93764 -1,64117
4,0228 3,78345
-1,89177 5,01745
-1,31485 -1,27004
0,77112 -2,35188
2,40807 2,96291
-1,18622 3,41603
-2,13819 40
1 1
-0,3567 -1,02777
0,93763 -1,64116
4,02283 3,78348
-1,89174 5,01748
-1,31486 -1,27005
0,77111 -2,35188
2,40809 2,96293
-1,1862 3,41606
-2,13816
Universitas Sumatera Utara
41 1
-0,3574 -1,02777
0,93693 -1,63995
4,02478 3,78348
-1,88979 5,01916
-1,31593 -1,27005
0,77004 -2,35119
2,40948 2,96293
-1,18481 3,41752
-2,13628 42
1 1
-0,35741 -1,02778
0,93692 -1,63994
4,02481 3,78351
-1,88976 5,01919
-1,31594 -1,27006
0,77003 -2,35119
2,4095 2,96295
-1,18479 3,41755
-2,13625 43
1 -0,35741
-1,02812 0,93658
-1,63953 4,02481
3,78442 -1,88885
5,01994 -1,31594
-1,27055 0,76954
-2,35086 2,4095
2,96357 -1,18417
3,41829 -2,13538
44 1
-0,35741 -1,02845
0,93625 -1,63912
4,02481 3,78532
-1,88795 5,02069
-1,31594 -1,27104
0,76905 -2,35053
2,4095 2,96419
-1,18355 3,41903
-2,13452 45
1 1
-0,35742 -1,02846
0,93624 -1,63911
4,02484 3,78535
-1,88792 5,02072
-1,31595 -1,27105
0,76904 -2,35053
2,40952 2,96421
-1,18353 3,41906
-2,13449 46
1 1
-0,35743 -1,02847
0,93623 -1,6391
4,02487 3,78538
-1,88789 5,02075
-1,31596 -1,27106
0,76903 -2,35053
2,40954 2,96423
-1,18351 3,41909
-2,13446 47
1 -0,35743
-1,0288 0,9359
-1,63869 4,02487
3,78627 -1,887
5,02149 -1,31596
-1,27154 0,76855
-2,35021 2,40954
2,96484 -1,1829
3,41982 -2,13361
48 1
-0,35743 -1,02913
0,93557 -1,63829
4,02487 3,78715
-1,88612 5,02222
-1,31596 -1,27202
0,76807 -2,34989
2,40954 2,96544
-1,1823 3,42054
-2,13277 49
1 -0,35743
-1,02945 0,93525
-1,63789 4,02487
3,78802 -1,88525
5,02295 -1,31596
-1,27249 0,7676
-2,34958 2,40954
2,96604 -1,1817
3,42125 -2,13194
50 1
-0,35809 -1,02945
0,93459 -1,63675
4,02672 3,78802
-1,8834 5,02455
-1,31698 -1,27249
0,76658 -2,34893
2,41086 2,96604
-1,18038 3,42263
-2,13015
Kuadrat error rata-rata
0,0009
Berikut adalah bobot akhir setelah epoh ke-41: • Bobot Akhir input ke hidden
V = -0,35809
4,02672 -1,31698
2,41086 -1,02945
3,78802 -1,27249
2,96604 • Bobot Akhir bias ke hidden
V 0,93459
-1,8834 0,76658
-1,18038 =
• Bobot Akhir hidden ke output W = -1,63675
5,02455 -2,34893
3,42263
Universitas Sumatera Utara
• Bobot Akhir bias ke output W
-2,13015 =
Gambar 4.9 menunjukkan grafik penurunan Mean Square Error MSE pada setiap epoh, mulai dari epoh pertama sampai epoh ke-41.
Gambar 4.9. Grafik penurunan Mean Square Error MSE sampai epoh ke-41
Grafik MSE tiap epoh
0,05 0,1
0,15 0,2
0,25 0,3
10 20
30 40
50
Epoh MSE
Universitas Sumatera Utara
4.4 Hasil Evaluasi