Inisialisasi untuk Metode ANALISIS DAN PEMBAHASAN

BAB IV ANALISIS DAN PEMBAHASAN Pada bab ini akan membahas tentang pengujian dari sistem yang dibuat. Pengujian ini dilakukan dengan tujuan untuk mengetahui kelebihan dan kekurangan dari aplikasi ini.

4.1 Inisialisasi untuk Metode

Perceptron dan Backpropagation Proses ini diawali dengan memilih menu yang ada pada tampilan utama saat aplikasi dijalankan. Form tampilan menu utama ditunjukkan pada gambar 4.1: Gambar 4.1. Tampilan Menu Utama Pada saat menu training dipilih, maka akan tampil sub menu pilihan untuk memilih salah satu metode yang akan digunakan untuk pelatihan yaitu perceptron dan backpropagation seperti gambar 4.2: Universitas Sumatera Utara Gambar 4.2. Tampilan Sub Menu Pilihan Setelah itu akan masuk ke form training seperti yang ditunjukkan pada gambar 4.3. Untuk training, langkah awal yang harus dilakukan adalah masuk ke tahap image processing yaitu memilih jenis daun dalam bentuk .bmp atau .jpg melalui tombol open file untuk diproses sehingga dapat dipakai pada proses pelatihan dan pengenalan. Gambar 4.3. Tampilan form training Setelah gambar terbuka, maka proses image akan dijalankan untuk mendapatkan ekstraksi fitur dari daun seperti yang ditunjukkan pada gambar 4.4: Universitas Sumatera Utara Binary image dari gambar daun akan diubah menjadi matriks biner 100 x 100, dimana warna putih direpresentasikan dengan nilai 1, dan warna hitam dengan nilai 0. Berikut ini adalah hasil gambar yang sudah dikonversikan ke dalam bentuk matriks biner. Gambar 4.4. Tampilan daun matriks 100 x 100 Universitas Sumatera Utara Untuk menyederhanakan perhitungan, matriks 100x100 diubah menjadi matriks 10x10 dengan cara menjumlahkan setiap matriks 10x10 seperti yang ditunjukkan pada potongan gambar 4.5: Gambar 4.5. Tampilan penyederhanaa daun matriks 100 x 100 Cara ini berguna untuk mencari tepi daun yang biasanya disebut margin, menggunakan boundary enhancement. Apabila hasil penjumlahan matriks 10x10=100, maka matriks hasilnya diberi nilai 0, jika antara 1-99, maka matriks hasilnya diberi nilai 1. Tampilan daun matriks 10x10 disajikan pada gambar 4.6: 0 0 0 0 1 1 0 0 0 0 0 0 1 1 1 1 1 1 0 0 0 0 1 1 1 1 1 1 0 0 0 1 1 1 1 1 1 1 1 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 1 1 1 1 1 1 1 1 0 0 0 0 0 1 1 0 0 0 0 0 0 1 1 0 0 1 1 0 0 0 0 1 0 0 0 0 1 0 0 0 1 1 0 0 0 0 0 1 0 1 1 0 0 0 0 0 0 0 1 1 0 0 0 0 0 0 0 0 1 1 0 0 0 0 0 0 0 0 1 1 0 0 0 0 0 0 0 0 1 1 1 0 0 1 1 0 0 0 1 0 1 1 1 1 1 1 1 1 0 Gambar 4.6. Tampilan daun matriks 10 x 10 Universitas Sumatera Utara Setiap matriks 10 x 2 yang pertama ditransformasikan menjadi matriks 2x10, kemudian matriks 10x2 yang kedua ditransformasikan menjadi matriks 2x10 dan ditempatkan di bawah matriks 2x10 yang sebelumnya seperti tabel 4.1: Tabel 4.1. Hasil Input dari daun No Input x 1 x 2 1 2 3 1 4 1 5 1 6 1 7 1 8 1 9 10 11 12 1 13 1 1 14 15 16 17 18 1 19 1 20 21 1 1 22 1 23 24 25 26 27 28 29 30 1 1 Universitas Sumatera Utara 31 1 1 32 33 34 35 36 37 38 39 40 1 1 41 1 42 1 1 43 1 44 1 45 1 1 46 1 1 47 1 48 1 49 1 50 1 Matriks 2x10 diatas merupakan input dari JST, sekaligus merupakan tahap inisialisasi. Untuk set targetnya, setiap input di OR kan sehingga didapat target yang ditunjukkan pada tabel 4.2: Universitas Sumatera Utara Tabel 4.2. Hasil target menggunakan operasi OR dari input No Input Target t x 1 x 2 x 1 OR x 2 1 2 3 1 1 4 1 1 5 1 1 6 1 1 7 1 1 8 1 1 9 10 11 12 1 1 13 1 1 1 14 15 16 17 18 1 1 19 1 1 20 21 1 1 1 22 1 1 23 24 25 26 27 28 29 30 1 1 1 31 1 1 1 32 Universitas Sumatera Utara 33 34 35 36 37 38 39 40 1 1 1 41 1 1 42 1 1 1 43 1 1 44 1 1 45 1 1 1 46 1 1 1 47 1 1 48 1 1 49 1 1 50 1 1 4.2 Pelatihan Training Perceptron Pada Daun Setelah proses ekstraksi fitur dari daun dilakukan, dan telah didapat inisialisasi 2 input x 1 dan x 2 dengan 1 target t, maka tahap selanjutnya adalah melakukan training pada daun. Set nilai acak, dengan nilai threshold θ=0,5. Learning rate yang digunakan adalah α=0,2. Bobot awal yang dipilih w 1 =0,1 dan w 2 =0,1. Maksimum Epoh=50, nilai error diperoleh dari nilai t-y. Dari Form Training di bawah ini, tombol yang digunakan untuk melakukan pelatihan adalah tombol training, dan hasilnya dapat dilihat pada bagian hasil training. Seperti gambar 4.7: Universitas Sumatera Utara Gambar 4.7. Tampilan form training Perceptron Pada epoh pertama: Data ke-1: x 11 = 0; x 21 =0; t 1 Bobot awal, w =0 1 = 0,1 dan w 2 Hasil aktivasi : a =0,1 11 = x 11 w 1 +x 21 w 2 Output : y =00,1+00,1=0 11 = 0, karena a 11 Nilai error : δ =0 ≤0,5 11 = t 1 -y 11 Bobot akhir: =0-0=0 w 1 = w 1 +αx 11 δ 11 w =0,1+0,200=0,1 2 = w 2 +αx 21 δ 11 Nilai bobot akhir ini akan menjadi nilai bobot awal pada data ke-2. =0,1+0,200=0,1 Data ke-2: x 12 = 0; x 22 =0; t 2 w =0 1 = 0,1 dan w 2 a =0,1 12 = x 12 w 1 +x 22 w 2 y =00,1+10,1=0 12 = 0, karena a 12 =0 ≤0,5 Universitas Sumatera Utara δ 12 = t 2 -y 12 w =0-0=0 1 = w 1 +αx 12 δ 12 w =0,1+0,200=0,1 2 = w 2 +αx 22 δ 12 =0,1+0,211=0,1 Data ke-3: x 13 = 0; x 23 =1; t 3 w =1 1 =0,1 dan w 2 a =0,1 13 = x 13 w 1 +x 23 w 2 y =00,1+10,1=0,1 13 =0, karena a 13 δ =0,1 ≤0,5 13 = t 3 -y 13 w =1-0=1 1 = w 1 +αx 13 δ 13 w =0,1+0,201=0,1 2 = w 2 +αx 23 δ 13 =0,1+0,211=0,3 Demikian seterusnya sampai Data ke-50. Training pada daun jarak di atas, untuk Epoh pertama masih didapatkan nilai error=6. Maka training akan dilanjutkan pada epoh kedua: Pada Epoh kedua: Data ke-1: x 11 =0; x 12 =0; t 1 w =0 1 =0,7 dan w 2 a =0,7 21 =x 11 w 1 +x 12 w 2 y =00,7+00,7=0 21 =0, karena a 21 δ =0 ≤0,5 21 =t 1 -y 21 w =0-0=0 1 =w 1 +αx 11 δ 21 w =0,7+0,200=0,7 2 =w 2 +αx 12 δ 21 =0,7+0,200=0,7 Demikian seterusnya sampai Data ke-50. Hasil akhir, dengan Error=0 tercapai pada Epoh kedua. Hasil selengkapnya terlihat pada tabel 4.3: Universitas Sumatera Utara Tabel 4.3. Hasil pembelajaran perceptron sampai Epoh ke-2 Epoh Data ke- Input Target Bobot 1 a y error Bobot 2 x x 1 t 2 w w 1 w 2 w 1 2 Epoh Ke 1 1 0,1 0,1 0,1 0,1 2 0,1 0,1 0,1 0,1 3 1 1 0,1 0,1 0,1 1 0,1 0,3 4 1 1 0,1 0,3 0,3 1 0,1 0,5 5 1 1 0,1 0,5 0,1 1 0,3 0,5 6 1 1 0,3 0,5 0,3 1 0,5 0,5 7 1 1 0,5 0,5 0,5 1 0,5 0,7 8 1 1 0,5 0,7 0,7 1 0,5 0,7 9 0,5 0,7 0,5 0,7 10 0,5 0,7 0,5 0,7 11 0,5 0,7 0,5 0,7 12 1 1 0,5 0,7 0,7 1 0,5 0,7 13 1 1 1 0,5 0,7 1,2 1 0,5 0,7 14 0,5 0,7 0,5 0,7 15 0,5 0,7 0,5 0,7 16 0,5 0,7 0,5 0,7 17 0,5 0,7 0,5 0,7 18 1 1 0,5 0,7 0,5 1 0,7 0,7 19 1 1 0,7 0,7 0,7 1 0,7 0,7 20 0,7 0,7 0,7 0,7 21 1 1 1 0,7 0,7 1,4 1 0,7 0,7 22 1 1 0,7 0,7 0,7 1 0,7 0,7 23 0,7 0,7 0,7 0,7 24 0,7 0,7 0,7 0,7 25 0,7 0,7 0,7 0,7 26 0,7 0,7 0,7 0,7 27 0,7 0,7 0,7 0,7 28 0,7 0,7 0,7 0,7 29 0,7 0,7 0,7 0,7 30 1 1 1 0,7 0,7 1,4 1 0,7 0,7 31 1 1 1 0,7 0,7 1,4 1 0,7 0,7 32 0,7 0,7 0,7 0,7 33 0,7 0,7 0,7 0,7 34 0,7 0,7 0,7 0,7 35 0,7 0,7 0,7 0,7 36 0,7 0,7 0,7 0,7 37 0,7 0,7 0,7 0,7 38 0,7 0,7 0,7 0,7 Universitas Sumatera Utara 39 0,7 0,7 0,7 0,7 40 1 1 1 0,7 0,7 1,4 1 0,7 0,7 41 1 1 0,7 0,7 0,7 1 0,7 0,7 42 1 1 1 0,7 0,7 1,4 1 0,7 0,7 43 1 1 0,7 0,7 0,7 1 0,7 0,7 44 1 1 0,7 0,7 0,7 1 0,7 0,7 45 1 1 1 0,7 0,7 1,4 1 0,7 0,7 46 1 1 1 0,7 0,7 1,4 1 0,7 0,7 47 1 1 0,7 0,7 0,7 1 0,7 0,7 48 1 1 0,7 0,7 0,7 1 0,7 0,7 49 1 1 0,7 0,7 0,7 1 0,7 0,7 50 1 1 0,7 0,7 0,7 1 0,7 0,7 Akurasi = 44 Epoh Ke 2 1 0,7 0,7 0,7 0,7 2 0,7 0,7 0,7 0,7 3 1 1 0,7 0,7 0,7 1 0,7 0,7 4 1 1 0,7 0,7 0,7 1 0,7 0,7 5 1 1 0,7 0,7 0,7 1 0,7 0,7 6 1 1 0,7 0,7 0,7 1 0,7 0,7 7 1 1 0,7 0,7 0,7 1 0,7 0,7 8 1 1 0,7 0,7 0,7 1 0,7 0,7 9 0,7 0,7 0,7 0,7 10 0,7 0,7 0,7 0,7 11 0,7 0,7 0,7 0,7 12 1 1 0,7 0,7 0,7 1 0,7 0,7 13 1 1 1 0,7 0,7 1,4 1 0,7 0,7 14 0,7 0,7 0,7 0,7 15 0,7 0,7 0,7 0,7 16 0,7 0,7 0,7 0,7 17 0,7 0,7 0,7 0,7 18 1 1 0,7 0,7 0,7 1 0,7 0,7 19 1 1 0,7 0,7 0,7 1 0,7 0,7 20 0,7 0,7 0,7 0,7 21 1 1 1 0,7 0,7 1,4 1 0,7 0,7 22 1 1 0,7 0,7 0,7 1 0,7 0,7 23 0,7 0,7 0,7 0,7 24 0,7 0,7 0,7 0,7 25 0,7 0,7 0,7 0,7 26 0,7 0,7 0,7 0,7 27 0,7 0,7 0,7 0,7 28 0,7 0,7 0,7 0,7 Universitas Sumatera Utara 4.3 Pelatihan Training Backpropagation Pada daun Pada training backpropagation ini, inisialisasi untuk input x 1 dan x 2 serta target t, isi datanya sama dengan perceptron di atas. Bobot awal yang menguhubungkan neuron-neuron pada lapisan input dan lapisan tersembunyi v 11 , v 12 , v 21 , v 22 dan bobot bias v0 1 dan v0 2 dipilih secara acak. Demikian pula bobot awal yang menghubungkan neuron-neuron pada lapisan tersembunyi dan lapisan output w 1 ,w 2 dan bobot bias w 29 juga dipilih secara acak. 0,7 0,7 0,7 0,7 30 1 1 1 0,7 0,7 1,4 1 0,7 0,7 31 1 1 1 0,7 0,7 1,4 1 0,7 0,7 32 0,7 0,7 0,7 0,7 33 0,7 0,7 0,7 0,7 34 0,7 0,7 0,7 0,7 35 0,7 0,7 0,7 0,7 36 0,7 0,7 0,7 0,7 37 0,7 0,7 0,7 0,7 38 0,7 0,7 0,7 0,7 39 0,7 0,7 0,7 0,7 40 1 1 1 0,7 0,7 1,4 1 0,7 0,7 41 1 1 0,7 0,7 0,7 1 0,7 0,7 42 1 1 1 0,7 0,7 1,4 1 0,7 0,7 43 1 1 0,7 0,7 0,7 1 0,7 0,7 44 1 1 0,7 0,7 0,7 1 0,7 0,7 45 1 1 1 0,7 0,7 1,4 1 0,7 0,7 46 1 1 1 0,7 0,7 1,4 1 0,7 0,7 47 1 1 0,7 0,7 0,7 1 0,7 0,7 48 1 1 0,7 0,7 0,7 1 0,7 0,7 49 1 1 0,7 0,7 0,7 1 0,7 0,7 50 1 1 0,7 0,7 0,7 1 0,7 0,7 Akurasi = 50 Universitas Sumatera Utara Dari Form Training di bawah ini, tombol yang digunakan untuk melakukan pelatihan adalah tombol training, dan hasilnya dapat dilihat pada bagian hasil training. Seperti yang ditunjukkan pada gambar 4.8: Gambar 4.8. Tampilan form training Backpropagation Pada Inisialisasi selanjutnya ditetapkan: Jumlah neuron pada input layer=2 Jumlah neuron pada hidden layer=4 Jumlah neuron pada output layer=1 Learning rate α= 1 Maksimum Epoh=50 Target Error=0,001 Bobot awal ditentukan secara acak: • Bobot Awal input ke hidden V = 0,9562 0,7762 0,1623 0,2886 0,1962 0,6133 0,0311 0,9711 Universitas Sumatera Utara • Bobot Awal bias ke hidden V 0,7496 0,3796 0,7256 0,1628 = • Bobot Awal hidden ke output W = 0,228 0,9585 0,6799 0,555 • Bobot awal bias ke output W 0,9505 = Epoh ke-1: Pembelajaran: Data ke=1 • Operasi pada Hidden layer Penjumlahan terbobot: z_in 1 = v 01 + v 11 x 11 + v 21 x = 0,7496 + 0,9562 0 + 0,1962 0 21 = 0,7496 z_in 2 = v 02 + v 12 x 11 + v 22 x = 0,3796 + 0,7762 0+ 0,6133 0 21 = 0,3796 z_in 3 = v 03 + v 13 x 11 + v 23 x = 0,7256 + 0,1623 0+ 0,0311 0 21 = 0,7256 z_in 4 = v 04 + v 14 x 11 + v 21 x = 0,1628 + 0,2886 0+ 0,9711 0 21 = 0,1628 Universitas Sumatera Utara Pengaktifan: z 1 6791 , 1 1 7496 , = + − e = z 2 5938 , 1 1 3796 , = + − e = z 3 6738 , 1 1 7256 , = + − e = z 4 5406 , 1 1 1 1628 , = − + − e = • Operasi pada output layer Perkalian: y_in = w0 + w1z1 + w2z2 + w3z3 + w4z4 = 0,9505 + 0,22800,6791 + 0,95850,5938 + 0,6799 0,6738 + 0,05500,5406 = 2,1623 Pengaktifan: y= 8968 , 1 1 1623 , 2 = + − e Error=0-0,8968=-0,8968 Jumlah Kuadrat Error=-0,8968 2 =0,80428 δ=t 1             + −       + − − in y in y e e _ _ 1 1 1 1 1 -y δ=0-0,8968 08299 , 1 1 1 1 1 1623 , 2 1623 , 2 − =             + −       + − − e e Universitas Sumatera Utara ∆w 1 = αδz ∆w 1 1 = 1-0,082990,6791=-0,05636 ∆w 2 = αδz ∆w 2 2 = 1-0,082990,5936=-0,04928 ∆w 3 = αδz ∆w 3 3 = 1-0,082990,6738=-0,05592 ∆w 4 = αδz ∆w 4 4 = 1-0,082990,5406=-0,04486 ∆w ∆w = αδ 2 = 1-0,08299=-0,08299 δ in1 = δw 1 δ =-0,082990,2280=-0,01893 in2 = δw 2 δ =-0,082990,9585=-0,07955 in3 = δw 3 δ =-0,082990,6799=-0,05642 in4 = δw 4 =-0,082990,0550=-0,00456 δ 1= δ in1             + −       + − − 1 1 _ _ 1 1 1 1 1 in z in z e e δ 1= 00412 , 1 1 1 1 1 6791 , 6791 , − =             + −       + − − e e -0,01893 δ 2= δ in2             + −       + − − 21 2 _ _ 1 1 1 1 1 in z in z e e δ 2= 01919 , 1 1 1 1 1 5983 , 5938 , − =             + −       + − − e e -0,07955 δ 3= δ in3             + −       + − − 3 3 _ _ 1 1 1 1 1 in z in z e e Universitas Sumatera Utara δ 1= 01240 , 1 1 1 1 1 6738 , 6738 , − =             + −       + − − e e -0,05642 δ 4= δ in4             + −       + − − 4 4 _ _ 1 1 1 1 1 in z in z e e δ 4= 00113 , 1 1 1 1 1 5406 , 5406 , − =             + −       + − − e e -0,00456 ∆v 11 = αδx 11 Demikian juga ∆v =1-0,004120=0 12 = ∆v 13 = ∆v 14 = ∆v 21 = ∆v 23 = ∆v 24 ∆v =0 01 ∆v == αδ1 =1-0,00412=-0,00412 02 ∆v == αδ2 =1-0,01919=-0,01919 03 ∆v == αδ3 =1-0,01240=-0,01240 04 == αδ4 =1-0,00113=-0,00113 • Bobot Akhir input ke hidden v 11 = v 11 + ∆v 11 v = 0,9562 + 0 = 0,9562 12 = v 12 + ∆v 12 v = 0,7762 + 0 = 0,7762 13 = v 13 + ∆v 13 v = 0,1623 + 0 = 0,1623 14 = v 14 + ∆v 14 v = 0,2886 + 0 = 0,2886 21 = v 21 + ∆v 21 v = 0,1962 + 0 = 0,1962 22 = v 22 + ∆v 22 v = 0,6133 + 0 = 0,6133 23 = v 23 + ∆v 23 v = 0,0311 + 0 = 0,0311 24 = v 24 + ∆v 24 = 0,9711 + 0 = 0,9711 • Bobot Akhir bias ke hidden v 01 = v 01 + ∆v 01 v = 0,7496 -0,00412 = 0,7455 02 = v 02 + ∆v 02 v = 0,3796 -0,01919 = 0,3604 03 = v 03 + ∆v 03 v = 0,7256 -0,01240 = 0,7132 04 = v 04 + ∆v 04 = 0,1628 -0,00113 = 0,1617 Universitas Sumatera Utara • Bobot Akhir hidden ke output w 1 = w 1 + ∆w 1 w =0,2280-0,05636=0,1717 2 = w 2 + ∆w 2 w =0,9585-0,04928=0,9092 3 = w 3 + ∆w 3 w =0,6799-0,5592=0,6239 4 = w 4 + ∆w 4 =0,0550-0,04486=0,0101 • Bobot Akhir bias ke output w = w + ∆w =0,9505-0,08299=0,8675 Pada data kedua, juga dilakukan operasi-operasi yang sama dengan menggunakan bobot-bobot akhir hasil pengolahan data pertama ini sebagai bobot-bobot awalnya. Proses ini dilakukan secara berulang sampai pada maksimum epoh 50 atau kuadrat error target error 0,001. Hasil selengkapnya terlihat pada tabel 4.4: Universitas Sumatera Utara Tabel 4.4. Hasil pembelajaran backpropagation sampai Epoh ke-41 Epoh Data ke- x 1 x 2 v 11 v 21 v 01 w 1 v 12 v 22 v 02 w 2 v 13 v 23 v 03 w 3 v 14 v 24 v 04 w 4 w Epoh 1 1 0,9562 0,1962 0,7496 0,228 0,7762 0,6133 0,3796 0,9585 0,1623 0,0311 0,7256 0,6799 0,2886 0,9711 0,1628 0,5555 0,9505 2 0,9562 0,1962 0,74297 0,12882 0,7762 0,6133 0,3482 0,872 0,1623 0,0311 0,70417 0,58161 0,2886 0,9711 0,1446 0,47617 0,80436 3 1 0,9562 0,19642 0,74319 0,13444 0,7762 0,6148 0,3497 0,87765 0,1623 0,03211 0,70518 0,58689 0,2886 0,97191 0,14541 0,48205 0,81217 4 1 0,9562 0,19664 0,74341 0,13983 0,7762 0,61625 0,35115 0,88308 0,1623 0,03309 0,70616 0,59196 0,2886 0,9727 0,1462 0,4877 0,81967 5 1 0,95641 0,19664 0,74362 0,14602 0,77761 0,61625 0,35256 0,88861 0,16326 0,03309 0,70712 0,59712 0,28942 0,9727 0,14702 0,49215 0,82699 6 1 0,95662 0,19664 0,74383 0,15195 0,77897 0,61625 0,35392 0,89391 0,16419 0,03309 0,70805 0,60207 0,29021 0,9727 0,14781 0,49641 0,83401 7 1 0,95662 0,19686 0,74405 0,15673 0,77897 0,61756 0,35523 0,89873 0,16419 0,03398 0,70894 0,60657 0,29021 0,97342 0,14853 0,50142 0,84065 8 1 0,95662 0,19708 0,74427 0,16134 0,77897 0,61883 0,3565 0,90338 0,16419 0,03485 0,70981 0,61091 0,29021 0,97412 0,14923 0,50625 0,84705 9 0,95662 0,19708 0,7413 0,10537 0,77897 0,61883 0,33938 0,85482 0,16419 0,03485 0,69852 0,55556 0,29021 0,97412 0,1395 0,4619 0,76449 10 0,95662 0,19708 0,73906 0,04085 0,77897 0,61883 0,32066 0,79919 0,16419 0,03485 0,68666 0,49193 0,29021 0,97412 0,12925 0,41095 0,66923 11 0,95662 0,19708 0,73805 -0,03365 0,77897 0,61883 0,30041 0,7354 0,16419 0,03485 0,67452 0,4187 0,29021 0,97412 0,1187 0,35235 0,55915 12 1 0,95662 0,19691 0,73788 -0,01693 0,77897 0,62261 0,30419 0,75204 0,16419 0,03703 0,6767 0,43431 0,29021 0,97591 0,12049 0,36979 0,58243 13 1 1 0,95656 0,19685 0,73782 -0,00209 0,78167 0,62531 0,30689 0,76649 0,16583 0,03867 0,67834 0,44637 0,29156 0,97726 0,12184 0,38345 0,59951 14 0,95656 0,19685 0,73788 -0,08312 0,78167 0,62531 0,28574 0,69749 0,16583 0,03867 0,66634 0,36691 0,29156 0,97726 0,11113 0,31992 0,47974 15 0,95656 0,19685 0,74039 -0,17464 0,78167 0,62531 0,26397 0,62024 0,16583 0,03867 0,65519 0,27752 0,29156 0,97726 0,10103 0,24851 0,34445 16 0,95656 0,19685 0,7461 -0,27369 0,78167 0,62531 0,24301 0,5375 0,16583 0,03867 0,64606 0,18123 0,29156 0,97726 0,09254 0,17168 0,19816 17 0,95656 0,19685 0,75507 -0,37319 0,78167 0,62531 0,22477 0,45528 0,16583 0,03867 0,64008 0,08499 0,29156 0,97726 0,08666 0,09495 0,05147 18 1 0,94773 0,19685 0,74624 -0,27782 0,79291 0,62531 0,23601 0,53773 0,16796 0,03867 0,64221 0,16282 0,29401 0,97726 0,08911 0,16177 0,16407 19 1 0,94773 0,19175 0,74114 -0,21786 0,79291 0,63523 0,24593 0,59629 0,16796 0,04171 0,64525 0,21813 0,29401 0,9802 0,09205 0,22374 0,24738 20 0,94773 0,19175 0,74835 -0,31819 0,79291 0,63523 0,2255 0,51315 0,16796 0,04171 0,63798 0,12096 0,29401 0,9802 0,0843 0,14626 0,09923 21 1 1 0,94162 0,18564 0,74224 -0,23809 0,80288 0,6452 0,23547 0,59057 0,17043 0,04418 0,64045 0,18553 0,2969 0,98309 0,08719 0,21963 0,19146 22 1 0,93788 0,18564 0,7385 -0,17518 0,81252 0,6452 0,24511 0,64566 0,17351 0,04418 0,64353 0,23717 0,30065 0,98309 0,09094 0,26401 0,26606 23 0,93788 0,18564 0,74428 -0,27503 0,81252 0,6452 0,22307 0,56288 0,17351 0,04418 0,63566 0,14043 0,30065 0,98309 0,08184 0,18688 0,1185 24 0,93788 0,18564 0,75317 -0,37318 0,81252 0,6452 0,20419 0,48246 0,17351 0,04418 0,63108 0,04577 0,30065 0,98309 0,07551 0,11154 -0,02628 25 0,93788 0,18564 0,76395 -0,46118 0,81252 0,6452 0,18971 0,41116 0,17351 0,04418 0,62975 -0,03871 0,30065 0,98309 0,07213 0,04438 -0,1557 26 0,93788 0,18564 0,77505 -0,53481 0,81252 0,6452 0,17941 0,35209 0,17351 0,04418 0,63069 -0,10913 0,30065 0,98309 0,07101 -0,01153 -0,26364 27 0,93788 0,18564 0,78549 -0,59476 0,81252 0,6452 0,17225 0,30439 0,17351 0,04418 0,63284 -0,16627 0,30065 0,98309 0,07125 -0,05686 -0,3512 28 0,93788 0,18564 0,79492 -0,64364 0,81252 0,6452 0,16722 0,26575 0,17351 0,04418 0,6355 -0,21275 0,30065 0,98309 0,0722 -0,09371 -0,42236 29 0,93788 0,18564 0,80334 -0,68412 0,81252 0,6452 0,16359 0,23392 0,17351 0,04418 0,63831 -0,25116 0,30065 0,98309 0,07349 -0,12415 -0,48112 30 1 1 0,9182 0,16596 0,78366 -0,5633 0,81935 0,65203 0,17042 0,34949 0,16581 0,03648 0,63061 -0,15402 0,29697 0,97941 0,06981 -0,01407 -0,34271 31 1 1 0,90082 0,14858 0,76628 -0,43503 0,83026 0,66294 0,18133 0,47355 0,16075 0,03142 0,62555 -0,05081 0,29652 0,97896 0,06936 0,10343 -0,19463 32 0,90082 0,14858 0,777 -0,51044 0,83026 0,66294 0,16918 0,41332 0,16075 0,03142 0,62681 -0,12278 0,29652 0,97896 0,06669 0,04629 -0,30509 33 0,90082 0,14858 0,78721 -0,57192 0,83026 0,66294 0,16055 0,36465 0,16075 0,03142 0,62929 -0,18128 0,29652 0,97896 0,06572 -0,00009 -0,39485 34 0,90082 0,14858 0,79649 -0,62201 0,83026 0,66294 0,15437 0,32528 0,16075 0,03142 0,63226 -0,22883 0,29652 0,97896 0,06572 -0,03773 -0,46775 35 0,90082 0,14858 0,80481 -0,66341 0,83026 0,66294 0,14982 0,29293 0,16075 0,03142 0,63536 -0,26806 0,29652 0,97896 0,06625 -0,06875 -0,52782 36 0,90082 0,14858 0,81225 -0,69824 0,83026 0,66294 0,14638 0,26584 0,16075 0,03142 0,6384 -0,30101 0,29652 0,97896 0,06706 -0,09479 -0,57822 37 0,90082 0,14858 0,81893 -0,72807 0,83026 0,66294 0,14371 0,24273 0,16075 0,03142 0,64132 -0,3292 0,29652 0,97896 0,06801 -0,11705 -0,62129 38 0,90082 0,14858 0,82498 -0,75402 0,83026 0,66294 0,1416 0,22269 0,16075 0,03142 0,64409 -0,3537 0,29652 0,97896 0,06903 -0,13639 -0,65869 39 0,90082 0,14858 0,83049 -0,7769 0,83026 0,66294 0,13989 0,20508 0,16075 0,03142 0,64671 -0,37527 0,29652 0,97896 0,07008 -0,15341 -0,69159 40 1 1 0,8818 0,12956 0,81147 -0,67491 0,83534 0,66802 0,14497 0,30343 0,15096 0,02163 0,63692 -0,29319 0,29265 0,97509 0,06621 -0,06014 -0,57403 41 1 0,86217 0,12956 0,79184 -0,55807 0,84456 0,66802 0,15419 0,40402 0,14193 0,02163 0,62789 -0,19811 0,29074 0,97509 0,0643 0,0213 -0,43571 42 1 1 0,84487 0,11226 0,77454 -0,43124 0,85716 0,68062 0,16679 0,52863 0,1354 0,0151 0,62136 -0,09617 0,29142 0,97577 0,06498 0,13847 -0,28756 43 1 0,84487 0,09936 0,76164 -0,33543 0,85716 0,69648 0,18265 0,62333 0,1354 0,01217 0,61843 -0,00769 0,29142 0,97987 0,06908 0,23845 -0,15227 44 1 0,84487 0,09121 0,75349 -0,25835 0,85716 0,7116 0,19777 0,70082 0,1354 0,01198 0,61824 0,06388 0,29142 0,98559 0,0748 0,31967 -0,0426 45 1 1 0,84061 0,08695 0,74923 -0,19217 0,86867 0,72311 0,20928 0,76777 0,13652 0,0131 0,61936 0,11739 0,29679 0,99096 0,08017 0,38195 0,03579 46 1 1 0,83826 0,0846 0,74688 -0,1431 0,87802 0,73246 0,21863 0,81776 0,13804 0,01462 0,62088 0,15718 0,30155 0,99572 0,08493 0,42837 0,09403 47 1 0,83826 0,08293 0,74521 -0,10656 0,87802 0,7419 0,22807 0,85559 0,13804 0,01647 0,62273 0,19146 0,30155 1,00062 0,08983 0,46753 0,14648 Universitas Sumatera Utara 48 1 0,83826 0,08192 0,7442 -0,07669 0,87802 0,74997 0,23614 0,88671 0,13804 0,01832 0,62458 0,21955 0,30155 1,005 0,09421 0,49965 0,1894 49 1 0,83826 0,08131 0,74359 -0,05163 0,87802 0,75698 0,24315 0,91295 0,13804 0,0201 0,62636 0,24316 0,30155 1,00892 0,09813 0,52667 0,22542 50 1 0,83789 0,08131 0,74322 -0,0238 0,88468 0,75698 0,24981 0,93825 0,13986 0,0201 0,62818 0,26605 0,30559 1,00892 0,10217 0,54675 0,25897 Kuadrat error rata-rata 0,2658 Epoh Data ke- x 1 x 2 v 11 v 21 v 01 w 1 v 12 v 22 v 02 w 2 v 13 v 23 v 03 w 3 v 14 v 24 v 04 w 4 w Epoh 2 1 0,83789 0,08131 0,74394 -0,11555 0,88468 0,75698 0,22043 0,86215 0,13986 0,0201 0,62007 0,17776 0,30559 1,00892 0,08488 0,4756 0,12358 2 0,83789 0,08131 0,74772 -0,21476 0,88468 0,75698 0,1912 0,78094 0,13986 0,0201 0,61421 0,08261 0,30559 1,00892 0,06861 0,39933 -0,02276 3 1 0,83789 0,07795 0,74436 -0,16571 0,88468 0,7691 0,20332 0,83172 0,13986 0,02141 0,61552 0,12866 0,30559 1,01506 0,07475 0,4519 0,0477 4 1 0,83789 0,07591 0,74232 -0,12713 0,88468 0,77925 0,21347 0,87202 0,13986 0,02302 0,61713 0,16499 0,30559 1,02053 0,08022 0,49346 0,10324 5 1 0,83656 0,07591 0,74099 -0,08625 0,89405 0,77925 0,22284 0,90899 0,14167 0,02302 0,61894 0,19855 0,31116 1,02053 0,08579 0,52281 0,15254 6 1 0,83582 0,07591 0,74025 -0,05274 0,90205 0,77925 0,23084 0,93945 0,14346 0,02302 0,62073 0,2261 0,316 1,02053 0,09063 0,54699 0,19297 7 1 0,83582 0,07554 0,73988 -0,03111 0,90205 0,78567 0,23726 0,96231 0,14346 0,02461 0,62232 0,24655 0,316 1,02424 0,09434 0,57046 0,22416 8 1 0,83582 0,07535 0,73969 -0,01231 0,90205 0,79139 0,24298 0,98226 0,14346 0,02611 0,62382 0,26435 0,316 1,02761 0,09771 0,5909 0,25128 9 0,83582 0,07535 0,74006 -0,1026 0,90205 0,79139 0,21267 0,90751 0,14346 0,02611 0,61588 0,1775 0,316 1,02761 0,0793 0,52095 0,11789 10 0,83582 0,07535 0,74339 -0,20099 0,90205 0,79139 0,1821 0,82714 0,14346 0,02611 0,61006 0,08314 0,316 1,02761 0,0616 0,44541 -0,02744 11 0,83582 0,07535 0,75001 -0,30089 0,90205 0,79139 0,15378 0,74675 0,14346 0,02611 0,6073 -0,01238 0,316 1,02761 0,04623 0,36944 -0,17484 12 1 0,83582 0,06901 0,74367 -0,23496 0,90205 0,80698 0,16937 0,81503 0,14346 0,02585 0,60704 0,04956 0,316 1,03526 0,05388 0,4401 -0,08003 13 1 1 0,8326 0,06579 0,74045 -0,18035 0,9131 0,81803 0,18042 0,87151 0,14418 0,02657 0,60776 0,09416 0,32212 1,04138 0,06 0,49239 -0,01491 14 0,8326 0,06579 0,74641 -0,28061 0,9131 0,81803 0,15044 0,79081 0,14418 0,02657 0,60462 -0,0017 0,32212 1,04138 0,04293 0,41614 -0,16298 15 0,8326 0,06579 0,75517 -0,37542 0,9131 0,81803 0,12471 0,71569 0,14418 0,02657 0,60467 -0,09208 0,32212 1,04138 0,0293 0,34477 -0,30274 16 0,8326 0,06579 0,7653 -0,45771 0,9131 0,81803 0,10452 0,65145 0,14418 0,02657 0,60718 -0,1703 0,32212 1,04138 0,01952 0,28341 -0,4237 17 0,8326 0,06579 0,77545 -0,52557 0,9131 0,81803 0,0894 0,59914 0,14418 0,02657 0,611 -0,23466 0,32212 1,04138 0,01291 0,23321 -0,52313 18 1 0,81628 0,06579 0,75913 -0,40304 0,93243 0,81803 0,10873 0,70672 0,13648 0,02657 0,6033 -0,13461 0,33001 1,04138 0,0208 0,31895 -0,37606 19 1 0,81628 0,0546 0,74794 -0,31609 0,93243 0,83752 0,12822 0,79631 0,13648 0,02278 0,59951 -0,05301 0,33001 1,05009 0,02951 0,41187 -0,25101 20 0,81628 0,0546 0,75731 -0,40616 0,93243 0,83752 0,10358 0,72571 0,13648 0,02278 0,6011 -0,13868 0,33001 1,05009 0,01669 0,34453 -0,38372 21 1 1 0,80606 0,04438 0,74709 -0,30644 0,95047 0,85556 0,12162 0,82913 0,13279 0,01909 0,59741 -0,05739 0,3388 1,05888 0,02548 0,44017 -0,26442 22 1 0,79941 0,04438 0,74044 -0,22191 0,969 0,85556 0,14015 0,90542 0,13148 0,01909 0,5961 0,01171 0,34914 1,05888 0,03582 0,5006 -0,16201 23 0,79941 0,04438 0,74762 -0,31995 0,969 0,85556 0,10961 0,82796 0,13148 0,01909 0,59572 -0,08165 0,34914 1,05888 0,01882 0,4269 -0,3068 24 0,79941 0,04438 0,75688 -0,40787 0,969 0,85556 0,08458 0,75964 0,13148 0,01909 0,59811 -0,16516 0,34914 1,05888 0,00584 0,36152 -0,43634 25 0,79941 0,04438 0,76673 -0,48157 0,969 0,85556 0,06535 0,70322 0,13148 0,01909 0,60215 -0,23501 0,34914 1,05888 -0,00335 0,30722 -0,54461 26 0,79941 0,04438 0,77618 -0,54169 0,969 0,85556 0,05086 0,65776 0,13148 0,01909 0,60682 -0,2919 0,34914 1,05888 -0,00971 0,26326 -0,63266 27 0,79941 0,04438 0,78484 -0,59084 0,969 0,85556 0,0398 0,62097 0,13148 0,01909 0,61155 -0,33835 0,34914 1,05888 -0,01415 0,22755 -0,70442 28 0,79941 0,04438 0,79266 -0,63164 0,969 0,85556 0,03115 0,59067 0,13148 0,01909 0,61608 -0,37687 0,34914 1,05888 -0,01733 0,19805 -0,76384 29 0,79941 0,04438 0,7997 -0,6661 0,969 0,85556 0,02421 0,56525 0,13148 0,01909 0,62033 -0,40937 0,34914 1,05888 -0,01966 0,17324 -0,8139 30 1 1 0,77933 0,0243 0,77962 -0,54625 0,98586 0,87242 0,04107 0,68882 0,11843 0,00604 0,60728 -0,31159 0,35444 1,06418 -0,01436 0,2877 -0,67088 31 1 1 0,76242 0,00739 0,76271 -0,42481 1,00684 0,8934 0,06205 0,81613 0,10823 -0,00416 0,59708 -0,21276 0,36344 1,07318 -0,00536 0,40522 -0,52451 32 0,76242 0,00739 0,77236 -0,49428 1,00684 0,8934 0,04259 0,76361 0,10823 -0,00416 0,60197 -0,27847 0,36344 1,07318 -0,01506 0,35441 -0,62639 33 0,76242 0,00739 0,78147 -0,55083 1,00684 0,8934 0,02779 0,72139 0,10823 -0,00416 0,60716 -0,33189 0,36344 1,07318 -0,02195 0,31338 -0,70907 34 0,76242 0,00739 0,78977 -0,59725 1,00684 0,8934 0,01634 0,68709 0,10823 -0,00416 0,61223 -0,37569 0,36344 1,07318 -0,02694 0,27992 -0,77674 35 0,76242 0,00739 0,79726 -0,63599 1,00684 0,8934 0,00725 0,6587 0,10823 -0,00416 0,617 -0,41221 0,36344 1,07318 -0,03065 0,25214 -0,83306 36 0,76242 0,00739 0,80401 -0,66887 1,00684 0,8934 -0,00013 0,63477 0,10823 -0,00416 0,62143 -0,44318 0,36344 1,07318 -0,03348 0,22866 -0,88075 37 0,76242 0,00739 0,81012 -0,69726 1,00684 0,8934 -0,00626 0,61422 0,10823 -0,00416 0,62553 -0,46991 0,36344 1,07318 -0,03569 0,20846 -0,92185 38 0,76242 0,00739 0,81569 -0,72213 1,00684 0,8934 -0,01145 0,59631 0,10823 -0,00416 0,62933 -0,49332 0,36344 1,07318 -0,03745 0,19081 -0,95779 39 0,76242 0,00739 0,8208 -0,7442 1,00684 0,8934 -0,01591 0,58049 0,10823 -0,00416 0,63287 -0,51408 0,36344 1,07318 -0,03888 0,17519 -0,98962 40 1 1 0,7417 -0,01333 0,80008 -0,63478 1,02276 0,90932 0,00001 0,69484 0,0931 -0,01929 0,61774 -0,42499 0,36837 1,07811 -0,03395 0,28081 -0,85789 41 1 0,72233 -0,01333 0,78071 -0,51618 1,04467 0,90932 0,02192 0,80074 0,0794 -0,01929 0,60404 -0,32844 0,37767 1,07811 -0,02465 0,36472 -0,71391 42 1 1 0,7067 -0,02896 0,76508 -0,39998 1,06832 0,93297 0,04557 0,9258 0,06889 -0,0298 0,59353 -0,23442 0,38875 1,08919 -0,01357 0,47965 -0,57151 43 1 0,7067 -0,03991 0,75413 -0,31716 1,06832 0,95788 0,07048 1,01484 0,06889 -0,0363 0,58703 -0,15635 0,38875 1,10201 -0,00075 0,571 -0,44901 Universitas Sumatera Utara 44 1 0,7067 -0,04667 0,74737 -0,25321 1,06832 0,97905 0,09165 1,08501 0,06889 -0,03967 0,58366 -0,09592 0,38875 1,11386 0,0111 0,64249 -0,35375 45 1 1 0,70341 -0,04996 0,74408 -0,20429 1,08193 0,99266 0,10526 1,13948 0,06757 -0,04099 0,58234 -0,05643 0,39706 1,12217 0,01941 0,6924 -0,29286 46 1 1 0,70137 -0,052 0,74204 -0,16681 1,09288 1,00361 0,11621 1,18148 0,06697 -0,04159 0,58174 -0,02615 0,40392 1,12903 0,02627 0,73089 -0,24611 47 1 0,70137 -0,05381 0,74023 -0,13459 1,09288 1,01605 0,12865 1,21796 0,06697 -0,04188 0,58145 0,00442 0,40392 1,13671 0,03395 0,76768 -0,19773 48 1 0,70137 -0,05501 0,73903 -0,10809 1,09288 1,02659 0,13919 1,24817 0,06697 -0,04184 0,58149 0,02958 0,40392 1,14334 0,04058 0,79808 -0,1579 49 1 0,70137 -0,05582 0,73822 -0,08577 1,09288 1,03568 0,14828 1,27377 0,06697 -0,04162 0,58171 0,05079 0,40392 1,14915 0,04639 0,82379 -0,12432 50 1 0,70074 -0,05582 0,73759 -0,05784 1,10238 1,03568 0,15778 1,30058 0,06736 -0,04162 0,5821 0,07348 0,41041 1,14915 0,05288 0,84489 -0,08977 Kuadrat error rata-rata 0,2224 Epoh 3 Kuadrat error rata-rata 0,1871 Epoh 4 Kuadrat error rata-rata 0,1394 Epoh 5 Kuadrat error rata-rata 0,0909 Epoh 6 Kuadrat error rata-rata 0,0558 Epoh 7 Kuadrat error rata-rata 0,0352 Epoh 8 Kuadrat error rata-rata 0,0237 Epoh 9 Kuadrat error rata-rata 0,017 Epoh 10 Kuadrat error rata-rata 0,0128 Epoh 11 Kuadrat error rata-rata 0,0101 Epoh 12 Kuadrat error rata-rata 0,0082 Epoh 13 Kuadrat error rata-rata 0,0068 Epoh 14 Kuadrat error rata-rata 0,0058 Epoh 15 Kuadrat error rata-rata 0,005 Epoh 16 Kuadrat error rata-rata 0,0044 Epoh 17 Kuadrat error rata-rata 0,0039 Epoh 18 Kuadrat error rata-rata 0,0035 Epoh 19 Kuadrat error rata-rata 0,0032 Epoh 20 Kuadrat error rata-rata 0,0029 Epoh 21 Kuadrat error rata-rata 0,0027 Epoh 22 Kuadrat error rata-rata 0,0025 Epoh 23 Kuadrat error rata-rata 0,0023 Epoh 24 Kuadrat error rata-rata 0,0021 Epoh 25 Kuadrat error rata-rata 0,002 Epoh 26 Kuadrat error rata-rata 0,0019 Epoh 27 Kuadrat error rata-rata 0,0018 Epoh 28 Kuadrat error rata-rata 0,0017 Epoh 29 Kuadrat error rata-rata 0,0016 Epoh 30 Kuadrat error rata-rata 0,0015 Epoh 31 Kuadrat error rata-rata 0,0014 Epoh 32 Kuadrat error rata-rata 0,0013 Epoh 33 Kuadrat error rata-rata 0,0013 Epoh 34 Kuadrat error rata-rata 0,0012 Epoh 35 Kuadrat error rata-rata 0,0012 Epoh 36 Kuadrat error rata-rata 0,0011 Epoh 37 Kuadrat error rata-rata 0,0011 Epoh 38 Kuadrat error rata-rata 0,001 Epoh 39 Kuadrat error rata-rata 0,001 Epoh 40 Kuadrat error rata-rata 0,001 Universitas Sumatera Utara Epoh Data ke- x 1 x 2 v 11 v 21 v 01 w 1 v 12 v 22 v 02 w 2 v 13 v 23 v 03 w 3 v 14 v 24 v 04 w 4 w Epoh 41 1 -0,35401 -1,02582 0,93403 -1,63181 4,01532 3,77816 -1,87605 5,00966 -1,31077 -1,2672 0,76611 -2,34083 2,40273 2,9593 -1,17595 3,41151 -2,12765 2 -0,35401 -1,02582 0,93437 -1,6325 4,01532 3,77816 -1,87724 5,00953 -1,31077 -1,2672 0,76661 -2,34148 2,40273 2,9593 -1,17675 3,41128 -2,12861 3 1 -0,35401 -1,02615 0,93404 -1,63209 4,01532 3,77905 -1,87635 5,01027 -1,31077 -1,26768 0,76613 -2,34116 2,40273 2,95991 -1,17614 3,41201 -2,12775 4 1 -0,35401 -1,02648 0,93371 -1,63169 4,01532 3,77993 -1,87547 5,011 -1,31077 -1,26816 0,76565 -2,34084 2,40273 2,96051 -1,17554 3,41273 -2,12691 5 1 -0,35468 -1,02648 0,93304 -1,63053 4,01719 3,77993 -1,8736 5,01262 -1,3118 -1,26816 0,76462 -2,34018 2,40407 2,96051 -1,1742 3,41413 -2,1251 6 1 -0,35534 -1,02648 0,93238 -1,62939 4,01902 3,77993 -1,87177 5,01421 -1,31281 -1,26816 0,76361 -2,33953 2,40538 2,96051 -1,17289 3,41551 -2,12332 7 1 -0,35534 -1,02679 0,93207 -1,629 4,01902 3,78078 -1,87092 5,01492 -1,31281 -1,26862 0,76315 -2,33922 2,40538 2,96109 -1,17231 3,41621 -2,1225 8 1 -0,35534 -1,0271 0,93176 -1,62861 4,01902 3,78163 -1,87007 5,01563 -1,31281 -1,26908 0,76269 -2,33891 2,40538 2,96167 -1,17173 3,4169 -2,12169 9 -0,35534 -1,0271 0,93212 -1,62933 4,01902 3,78163 -1,87131 5,0155 -1,31281 -1,26908 0,76321 -2,33959 2,40538 2,96167 -1,17257 3,41666 -2,12269 10 -0,35534 -1,0271 0,93248 -1,63004 4,01902 3,78163 -1,87255 5,01537 -1,31281 -1,26908 0,76373 -2,34027 2,40538 2,96167 -1,17341 3,41643 -2,12368 11 -0,35534 -1,0271 0,93283 -1,63074 4,01902 3,78163 -1,87377 5,01524 -1,31281 -1,26908 0,76424 -2,34094 2,40538 2,96167 -1,17423 3,4162 -2,12466 12 1 -0,35534 -1,02741 0,93252 -1,63035 4,01902 3,78248 -1,87292 5,01595 -1,31281 -1,26954 0,76378 -2,34063 2,40538 2,96225 -1,17365 3,4169 -2,12384 13 1 1 -0,35535 -1,02742 0,93251 -1,63034 4,01905 3,78251 -1,87289 5,01598 -1,31282 -1,26955 0,76377 -2,34063 2,4054 2,96227 -1,17363 3,41693 -2,12381 14 -0,35535 -1,02742 0,93286 -1,63104 4,01905 3,78251 -1,87411 5,01585 -1,31282 -1,26955 0,76428 -2,3413 2,4054 2,96227 -1,17446 3,4167 -2,12479 15 -0,35535 -1,02742 0,93321 -1,63174 4,01905 3,78251 -1,87532 5,01572 -1,31282 -1,26955 0,76479 -2,34196 2,4054 2,96227 -1,17528 3,41647 -2,12576 16 -0,35535 -1,02742 0,93356 -1,63243 4,01905 3,78251 -1,87653 5,01559 -1,31282 -1,26955 0,76529 -2,34262 2,4054 2,96227 -1,17609 3,41624 -2,12673 17 -0,35535 -1,02742 0,93391 -1,63312 4,01905 3,78251 -1,87773 5,01546 -1,31282 -1,26955 0,76579 -2,34328 2,4054 2,96227 -1,1769 3,41601 -2,12769 18 1 -0,35601 -1,02742 0,93325 -1,63198 4,0209 3,78251 -1,87588 5,01706 -1,31383 -1,26955 0,76478 -2,34263 2,40672 2,96227 -1,17558 3,41739 -2,1259 19 1 -0,35601 -1,02773 0,93294 -1,63159 4,0209 3,78336 -1,87503 5,01777 -1,31383 -1,27001 0,76432 -2,34232 2,40672 2,96285 -1,175 3,41809 -2,12508 20 -0,35601 -1,02773 0,93329 -1,63229 4,0209 3,78336 -1,87624 5,01764 -1,31383 -1,27001 0,76483 -2,34298 2,40672 2,96285 -1,17582 3,41786 -2,12605 21 1 1 -0,35602 -1,02774 0,93328 -1,63228 4,02093 3,78339 -1,87621 5,01767 -1,31384 -1,27002 0,76482 -2,34298 2,40674 2,96287 -1,1758 3,41789 -2,12602 22 1 -0,35667 -1,02774 0,93263 -1,63116 4,02274 3,78339 -1,8744 5,01924 -1,31483 -1,27002 0,76383 -2,34234 2,40803 2,96287 -1,17451 3,41925 -2,12427 23 -0,35667 -1,02774 0,93298 -1,63186 4,02274 3,78339 -1,87561 5,01911 -1,31483 -1,27002 0,76434 -2,343 2,40803 2,96287 -1,17533 3,41902 -2,12524 24 -0,35667 -1,02774 0,93333 -1,63255 4,02274 3,78339 -1,87682 5,01898 -1,31483 -1,27002 0,76485 -2,34366 2,40803 2,96287 -1,17615 3,41879 -2,12621 25 -0,35667 -1,02774 0,93368 -1,63324 4,02274 3,78339 -1,87802 5,01885 -1,31483 -1,27002 0,76535 -2,34432 2,40803 2,96287 -1,17696 3,41856 -2,12717 26 -0,35667 -1,02774 0,93402 -1,63393 4,02274 3,78339 -1,87921 5,01872 -1,31483 -1,27002 0,76585 -2,34497 2,40803 2,96287 -1,17776 3,41834 -2,12813 27 -0,35667 -1,02774 0,93436 -1,63461 4,02274 3,78339 -1,88039 5,01859 -1,31483 -1,27002 0,76635 -2,34562 2,40803 2,96287 -1,17856 3,41812 -2,12908 28 -0,35667 -1,02774 0,9347 -1,63529 4,02274 3,78339 -1,88157 5,01847 -1,31483 -1,27002 0,76684 -2,34626 2,40803 2,96287 -1,17935 3,4179 -2,13002 29 -0,35667 -1,02774 0,93504 -1,63596 4,02274 3,78339 -1,88274 5,01835 -1,31483 -1,27002 0,76733 -2,3469 2,40803 2,96287 -1,18014 3,41768 -2,13096 30 1 1 -0,35668 -1,02775 0,93503 -1,63595 4,02277 3,78342 -1,88271 5,01838 -1,31484 -1,27003 0,76732 -2,3469 2,40805 2,96289 -1,18012 3,41771 -2,13093 31 1 1 -0,35669 -1,02776 0,93502 -1,63594 4,0228 3,78345 -1,88268 5,01841 -1,31485 -1,27004 0,76731 -2,3469 2,40807 2,96291 -1,1801 3,41774 -2,1309 32 -0,35669 -1,02776 0,93535 -1,63661 4,0228 3,78345 -1,88384 5,01829 -1,31485 -1,27004 0,7678 -2,34754 2,40807 2,96291 -1,18088 3,41752 -2,13183 33 -0,35669 -1,02776 0,93568 -1,63727 4,0228 3,78345 -1,88499 5,01817 -1,31485 -1,27004 0,76828 -2,34817 2,40807 2,96291 -1,18166 3,4173 -2,13276 34 -0,35669 -1,02776 0,93601 -1,63793 4,0228 3,78345 -1,88614 5,01805 -1,31485 -1,27004 0,76876 -2,3488 2,40807 2,96291 -1,18243 3,41708 -2,13368 35 -0,35669 -1,02776 0,93634 -1,63859 4,0228 3,78345 -1,88728 5,01793 -1,31485 -1,27004 0,76924 -2,34942 2,40807 2,96291 -1,1832 3,41687 -2,13459 36 -0,35669 -1,02776 0,93667 -1,63924 4,0228 3,78345 -1,88841 5,01781 -1,31485 -1,27004 0,76971 -2,35004 2,40807 2,96291 -1,18396 3,41666 -2,1355 37 -0,35669 -1,02776 0,937 -1,63989 4,0228 3,78345 -1,88954 5,01769 -1,31485 -1,27004 0,77018 -2,35066 2,40807 2,96291 -1,18472 3,41645 -2,1364 38 -0,35669 -1,02776 0,93732 -1,64053 4,0228 3,78345 -1,89066 5,01757 -1,31485 -1,27004 0,77065 -2,35127 2,40807 2,96291 -1,18547 3,41624 -2,1373 39 -0,35669 -1,02776 0,93764 -1,64117 4,0228 3,78345 -1,89177 5,01745 -1,31485 -1,27004 0,77112 -2,35188 2,40807 2,96291 -1,18622 3,41603 -2,13819 40 1 1 -0,3567 -1,02777 0,93763 -1,64116 4,02283 3,78348 -1,89174 5,01748 -1,31486 -1,27005 0,77111 -2,35188 2,40809 2,96293 -1,1862 3,41606 -2,13816 Universitas Sumatera Utara 41 1 -0,3574 -1,02777 0,93693 -1,63995 4,02478 3,78348 -1,88979 5,01916 -1,31593 -1,27005 0,77004 -2,35119 2,40948 2,96293 -1,18481 3,41752 -2,13628 42 1 1 -0,35741 -1,02778 0,93692 -1,63994 4,02481 3,78351 -1,88976 5,01919 -1,31594 -1,27006 0,77003 -2,35119 2,4095 2,96295 -1,18479 3,41755 -2,13625 43 1 -0,35741 -1,02812 0,93658 -1,63953 4,02481 3,78442 -1,88885 5,01994 -1,31594 -1,27055 0,76954 -2,35086 2,4095 2,96357 -1,18417 3,41829 -2,13538 44 1 -0,35741 -1,02845 0,93625 -1,63912 4,02481 3,78532 -1,88795 5,02069 -1,31594 -1,27104 0,76905 -2,35053 2,4095 2,96419 -1,18355 3,41903 -2,13452 45 1 1 -0,35742 -1,02846 0,93624 -1,63911 4,02484 3,78535 -1,88792 5,02072 -1,31595 -1,27105 0,76904 -2,35053 2,40952 2,96421 -1,18353 3,41906 -2,13449 46 1 1 -0,35743 -1,02847 0,93623 -1,6391 4,02487 3,78538 -1,88789 5,02075 -1,31596 -1,27106 0,76903 -2,35053 2,40954 2,96423 -1,18351 3,41909 -2,13446 47 1 -0,35743 -1,0288 0,9359 -1,63869 4,02487 3,78627 -1,887 5,02149 -1,31596 -1,27154 0,76855 -2,35021 2,40954 2,96484 -1,1829 3,41982 -2,13361 48 1 -0,35743 -1,02913 0,93557 -1,63829 4,02487 3,78715 -1,88612 5,02222 -1,31596 -1,27202 0,76807 -2,34989 2,40954 2,96544 -1,1823 3,42054 -2,13277 49 1 -0,35743 -1,02945 0,93525 -1,63789 4,02487 3,78802 -1,88525 5,02295 -1,31596 -1,27249 0,7676 -2,34958 2,40954 2,96604 -1,1817 3,42125 -2,13194 50 1 -0,35809 -1,02945 0,93459 -1,63675 4,02672 3,78802 -1,8834 5,02455 -1,31698 -1,27249 0,76658 -2,34893 2,41086 2,96604 -1,18038 3,42263 -2,13015 Kuadrat error rata-rata 0,0009 Berikut adalah bobot akhir setelah epoh ke-41: • Bobot Akhir input ke hidden V = -0,35809 4,02672 -1,31698 2,41086 -1,02945 3,78802 -1,27249 2,96604 • Bobot Akhir bias ke hidden V 0,93459 -1,8834 0,76658 -1,18038 = • Bobot Akhir hidden ke output W = -1,63675 5,02455 -2,34893 3,42263 Universitas Sumatera Utara • Bobot Akhir bias ke output W -2,13015 = Gambar 4.9 menunjukkan grafik penurunan Mean Square Error MSE pada setiap epoh, mulai dari epoh pertama sampai epoh ke-41. Gambar 4.9. Grafik penurunan Mean Square Error MSE sampai epoh ke-41 Grafik MSE tiap epoh 0,05 0,1 0,15 0,2 0,25 0,3 10 20 30 40 50 Epoh MSE Universitas Sumatera Utara

4.4 Hasil Evaluasi