Pra-Pengolahan Klasifikasi Menggunakan Jaringan Saraf Tiruan Backpropagation

32 Citra yang telah dikumpulkan akan dibagi ke dalam dua kelompok data yaitu data latih dan data uji. Data latih berjumlah 80 dari data citra keseluruhan sedangkan data uji berjumlah 20 dari data citra keseluruhan sehingga pada penelitian ini data latih untuk setiap jenis kayu berjumlah 40 buah sedangkan data uji untuk setiap jenis kayu berjumlah 10 buah.

3.4. Pra-Pengolahan

Tahap pra-pengolahan citra adalah tahap pengolahan citra untuk menghasilkan citra yang lebih baik untuk diproses ke tahap selanjutnya yaitu tahap ekstraksi fitur. Pada penelitian ini pra-pengolahan citra yang dilakukan adalah memperkecil ukuran citra scaling dan pembentukan citra aras keabuan grayscaling. 3.4.1. Memperkecil ukuran citra Scaling Proses akuisisi citra menghasikan citra dengan ukuran 2560 x 1920 piksel. Citra hasil akuisisi memiliki ukuran yang cukup besar sehingga perlu dilakukan proses memperkecil ukuran citra. Pada penelitian ini seluruh citra hasil akuisisi akan diperkecil ukurannya menjadi 160 x 120 piksel. 3.4.2. Pembentukan citra aras keabuan Grayscaling Kemudian setelah proses scaling, citra akan diproses dari bentuk RGB ke dalam bentuk citra aras keabuan. Tahap ini dilakukan agar citra dapat diproses pada tahap ekstraksi fitur. Contoh proses grayscaling citra dari bentuk RGB ke bentuk grayscale ditunjukkan pada Gambar 3.3. a b Gambar 3.3. a Citra kayu RGB b Citra kayu grayscale Adapun langkah - langkah proses grayscaling dapat dilihat pada Gambar 3.4. Universitas Sumatera Utara 33 Gambar 3.4. Langkah - langkah proses grayscaling

3.5. Ekstraksi Fitur

Setelah citra diubah ke dalam bentuk citra aras keabuan grayscale, maka langkah selanjutnya adalah tahap ekstraksi fitur. Ekstraksi fitur dilakukan untuk mendapatkan nilai yang dapat merepresentasikan citra. Pada penelitian ini, metode yang digunakan untuk ekstraksi fitur citra adalah Gray Level Co-Occurrence Matrix GLCM. GLCM adalah matriks yang menunjukkan probabilitas nilai keabuan piksel referensi dengan nilai keabuan piksel tetangga berdasarkan jarak dan arah tertentu. Langkah - langkah yang akan dilakukan pada ekstraksi fitur menggunakan GLCM adalah sebagai berikut. 1. Menentukan nilai gray level pada citra. Nilai gray level yang digunakan adalah 256. 2. Membentuk matriks framework berdasarkan nilai gray level yang telah ditentukan. 3. Menentukan jarak dan arah yang digunakan untuk membentuk matriks kookurensi. Pada penelitian ini, jarak yang digunakan adalah 1 dan arah yang digunakan adalah 0°, 45°, 90° dan° 135°. 4. Membentuk matriks kookurensi berdasarkan jarak dan arah yang dipilih. 5. Membentuk matriks simetris dengan cara menambahkan matriks kookurensi dengan transpose matriks kookurensi tersebut. 6. Melakukan normalisasi terhadap matriks simetris dengan cara membagi nilai setiap elemen matriks simetris dengan penjumlahan seluruh nilai elemen pada matriks simetris. Masukkan citra RGB fh,w dengan tinggi h, lebar w. For i=0 sampai i=h-1 For j=0 sampai j=w-1 Ambil nilai komponen R, G dan B pada kolom i baris j pada citra fh,w Hitung nilai Grayscale pada posisi kolom i baris j pada citra fh,w dengan menjumlahkan nilai tiap komponen RGB di posisi tersebut kemudian dibagi dengan 3. End For End For Proses grayscaling berakhir Universitas Sumatera Utara 34 7. Menghitung fitur statistik dari matriks yang telah dinormalisasi. Fitur yang akan digunakan adalah angular second moment, contrast, inverse difference moment, entropy dan correlation. 3.5.1. Pembentukan GLCM Dalam membentuk matriks kookurensi, penentuan piksel referensi dan piksel tetangga dilakukan berdasarkan arah yang dipilih. Untuk pembentukan GLCM dengan arah 0° dapat dilihat pada Gambar 3.5. Gambar 3.5. Proses pembentukan matriks kookurensi arah 0° Untuk pembentukan GLCM dengan arah 45° dapat dilihat pada Gambar 3.6. Gambar 3.6. Proses pembentukan matriks kookurensi arah 45° Input citra grayscale nilai gray level G, tinggi h, lebar w Tentukan jarak d, arah adalah 0° Inisialisasi penghitung piksel dalam citra pixelCounter = 0 Membentuk matriks framework m berukuran G x G For i=0 sampai i=h – 1 For j=0 sampai j= w – d – 1 Tentukan piksel referensi nilai intensitas keabuan pada citra di posisi i, j Tentukan piksel tetangga nilai intensitas keabuan pada citra di posisi i, j+d Menambahkan nilai 1 pada elemen m posisi piksel referensi, piksel tetangga Menambahkan nilai 1 pada elemen m posisi piksel tetangga, piksel referensi Menambahkan nilai pixelCounter dengan 2 End For End For Input citra grayscale nilai gray level G, tinggi h, lebar w Tentukan jarak d, arah adalah 45° Inisialisasi penghitung piksel dalam citra pixelCounter = 0 Membentuk matriks framework m berukuran G x G For i=d sampai i=h – 1 For j=0 sampai j = w – d – 1 Tentukan piksel referensi nilai intensitas keabuan pada citra di posisi i, j Tentukan piksel tetangga nilai intensitas keabuan pada citra di posisi i-d, j+d Menambahkan nilai 1 pada elemen m posisi piksel referensi, piksel tetangga Menambahkan nilai 1 pada elemen m posisi piksel tetangga, piksel referensi Menambahkan nilai pixelCounter dengan 2 End For End For Universitas Sumatera Utara 35 Untuk pembentukan GLCM dengan arah 90° dapat dilihat pada Gambar 3.7. Gambar 3.7. Proses pembentukan matriks kookurensi arah 90° Untuk pembentukan GLCM dengan arah 135° dapat dilihat pada Gambar 3.8. Gambar 3.8. Proses pembentukan matriks kookurensi arah 135° Langkah – langkah yang telah diuraikan sebelumnya adalah langkah-langkah untuk membuat matriks kookurensi yang simetris karena sudah ada penambahan elemen transpose. Setelah matriks sudah simetris, kemudian langkah selanjutnya adalah menormalisasi matriks simetris. Gambar 3.9 menunjukkan proses normalisasi matriks simetris dari arah tertentu. Input citra grayscale nilai gray level G, tinggi h, lebar w Tentukan jarak d, arah adalah 90° Inisialisasi penghitung piksel dalam citra pixelCounter = 0 Membentuk matriks framework m berukuran G x G For i=d sampai i = h – 1 For j=0 sampai j = w – 1 Tentukan piksel referensi nilai intensitas keabuan pada citra di posisi i, j Tentukan piksel tetangga nilai intensitas keabuan pada citra di posisi i-d, j Menambahkan nilai 1 pada elemen m posisi piksel referensi, piksel tetangga Menambahkan nilai 1 pada elemen m posisi piksel tetangga, piksel referensi Menambahkan nilai pixelCounter dengan 2 End For End For Input citra grayscale nilai gray level G, tinggi h, lebar w Tentukan jarak d, arah adalah 135° Inisialisasi penghitung piksel dalam citra pixelCounter = 0 Membentuk matriks framework m berukuran G x G For i=d sampai i = h – 1 For j=d sampai j = w – 1 Tentukan piksel referensi nilai intensitas keabuan pada citra di posisi i, j Tentukan piksel tetangga nilai intensitas keabuan pada citra di posisi i-d, j-d Menambahkan nilai 1 pada elemen m posisi piksel referensi, piksel tetangga Menambahkan nilai 1 pada elemen m posisi piksel tetangga, piksel referensi Menambahkan nilai pixelCounter dengan 2 End For End For Universitas Sumatera Utara 36 Gambar 3.9. Normalisasi matriks simetris Setelah itu, nilai fitur statistik dapat dihitung berdasarkan matriks yang telah dinormalisasi. Pada penelitian ini, ekstraksi fitur GLCM menghasilkan 5 fitur statistik. Masing-masing fitur statistik terdiri dari empat arah 0°, 45°, 90° dan° 135° sehingga jumlah fitur yang akan diproses pada tahap klasifikasi adalah 5 x 4 = 20 fitur. Contoh hasil ekstraksi fitur dari sebuah citra ditunjukkan pada Tabel 3.1. Tabel 3.1. Contoh nilai hasil ekstraksi fitur GLCM No Fitur Arah Nilai 1. Angular Second Moment 0° 0.022

2. Angular Second Moment

45° 0.021

3. Angular Second Moment

90° 0.024

4. Angular Second Moment

135° 0.02

5. Contrast

0° 69.207

6. Contrast

45° 89.911

7. Contrast

90° 53.127

8. Contrast

135° 95.713

9. Inverse Difference Moment

0° 0.153

10. Inverse Difference Moment 45°

0.136

11. Inverse Difference Moment 90°

0.176

12. Inverse Difference Moment 135°

0.135

13. Entropy 0°

7.947

14. Entropy 45°

8.067

15. Entropy 90°

7.817

16. Entropy 135°

8.089

17. Correlation 0°

0.002

18. Correlation 45°

0.002

19. Correlation 90°

0.002

20. Correlation 135°

0.002 Sediakan matriks simetris yang akan dinormalisasi berukuran G x G beserta nilai penghitung piksel dalam citra pixelCounter For i=0 sampai i = G – 1 For j=0 sampai j = G – 1 Membagi nilai elemen matriks m pada posisi i, j dengan pixelCounter End For End For Universitas Sumatera Utara 37 3.5.2. Ekstraksi nilai fitur Ekstraksi nilai fitur GLCM bertujuan untuk mendapatkan nilai fitur dari matriks yang telah dinormalisasi. Pada bagian ini, akan diuraikan proses perhitungan lima fitur Haralick berdasarkan matriks normalisasi 0° berukuran 4 x 4 yang dapat dilihat pada Gambar 3.10. 0.167 0.083 0.041 0.083 0.167 0.041 0.25 0.041 0.041 0.083 Gambar 3.10. Matriks Normalisasi Perhitungan fitur Angular Second Moment ASM dari matriks pada Gambar 3.10 menggunakan persamaan 2.2 adalah sebagai berikut. ASM= = = 0.167 0.167 + 0.083 0.083 + 0.041 0.041+ 0 0 + 0.083 0.083 + 0.167 0.167 + 0 0 + 0 0 + 0.041 0.041 + 0 0 + 0.25 0.25 + 0.041 0.041 + 0 0 + 0 0 + 0.041 0.041 + 0.083 0.083 0.027889 + 0.006889 + 0.001681 + 0 + 0.006889 + 0.027889 + 0 + 0 + 0.001681 + 0 + 0.0625 + 0.001681 + 0 + 0 + 0.001681 + 0.006889 0.145669 Perhitungan fitur Contrast CON dari matriks pada Gambar 3.10 menggunakan persamaan 2.4 adalah sebagai berikut. CON= 0.167 0-0 2 + 0.083 0-1 2 + 0.041 0-2 2 + 00-3 2 + 0.083 1-0 2 + 0.167 1-1 2 + 0 1-2 2 + 0 1-3 2 + 0.041 2-0 2 + 0 2-1 2 + 0.25 2-2 2 + 0.041 2-3 2 + 0 3-0 2 + 0 3-1 2 + 0.041 3-2 2 + 0.083 3-3 2 Universitas Sumatera Utara 38 = = 0 + 0.083 + 0.164 + 0 + 0.083 + 0 + 0 + 0 + 0.164 + 0 + 0 + 0.041 + 0 + 0 + 0.041 + 0 0.576 Perhitungan fitur Inverse Difference Moment IDM dari matriks pada Gambar 3.10 menggunakan persamaan 2.5 adalah sebagai berikut. IDM= = = 0.1671+ 0-0 2 + 0.083 1+0-1 2 + 0.0411+0-2 2 + 01+0-3 2 + 0.083 1+ 1-0 2 + 0.167 1+1-1 2 + 01+1-2 2 + 01+1-3 2 + 0.041 1+ 2-0 2 + 0 1+2-1 2 + 0.251+2-2 2 + 0.0411+2-3 2 + 0 1+ 3-0 2 + 0 1+3-1 2 + 0.0411+3-2 2 + 0.0831+3-3 2 0.167 + 0.0415 + 0.0082 + 0 + 0.0415 + 0.167 + 0 + 0 + 0.0082 + 0 + 0.25 + 0.0205 +0 + 0 + 0.0205 + 0.083 0.8074 Perhitungan fitur Entropy ENT dari matriks pada Gambar 3.10 menggunakan persamaan 2.3 adalah sebagai berikut. ENT= = = 0.167 -ln0.167 + 0.083 -ln0.083 + 0.041 -ln0.041+ 0+ 0.083 -ln0.083 + 0.167 -ln0.167 + 0 + 0 + 0.041 -ln0.041 + 0 + 0.25 -ln0.25 + 0.041 -ln0.041 0 + 0 + 0.041 -ln0.041 + 0.083 -ln0.083 0.2989 + 0.2066 + 0.131 + 0 + 0.2066 + 0.2989 + 0 + 0 + 0.131 + 0 + 0.346 + 0.131 + 0 + 0 + 0.131 + 0.206 2.087 Untuk menghitung nilai correlation, perhitungan nilai mean � dan variance � dilakukan terlebih dahulu. Hasil perhitungan � dan � bernilai sama. Begitu juga dengan � dan � . Oleh karena itu dalam menghitung nilai correlation, nilai mean dan variance yang akan digunakan adalah perhitungan berdasarkan piksel referensi i atau perhitungan berdasarkan piksel tetangga j. Universitas Sumatera Utara 39 Perhitungan nilai mean berdasarkan Gambar 3.10 menggunakan persamaan 2.7 adalah sebagai berikut. � i = = = 0 0.167 + 0 0.083 + 0 0.041+ 0 0 + 1 0.083 + 1 0.167 + 1 0 + 1 0 + 2 0.041 + 2 0 + 2 0.25 + 2 0.041 + 3 0 + 3 0 + 3 0.041 + 3 0.083 0 + 0 + 0 + 0 + 0.083 + 0.167 + 0 + 0 + 0.082 + 0 + 0.5 + 0.082 + 0 + 0 + 0.123 + 0.249 1.286 Perhitungan nilai variance berdasarkan Gambar 3.10 menggunakan persamaan 2.9 adalah sebagai berikut. � = = = 0.1670-1.286 2 + 0.0830-1.286 2 + 0.0410-1.286 2 + 00-1.286 2 +0.0831-1.286 2 + 0.1671-1.286 2 + 01-1.286 2 + 0 1-1.286 2 + 0.0412-1.286 2 + 02-1.286 2 + 0.252-1.286 2 + 0.0412-1.286 2 +03-1.286 2 + 03-1.286 2 + 0.0413-1.286 2 + 0.0833-1.286 2 0.276 + 0.137 + 0.068 + 0 + 0.007 + 0.014 + 0 + 0 + 0.021 + 0 + 0.127 + 0.021 + 0 + 0 + 0.12 + 0.244 1.035 Perhitungan nilai fitur Correlation COR dari matriks pada Gambar 3.10 menggunakan persamaan 2.6 adalah sebagai berikut. COR= = = 0-1.2860.1670-1.286+0.0831-1.286+ 0.0412-1.286 + 03-1.286 +1-1.2860.0830-1.286+0.1671-1.286+02-1.286+ 03-1.286+ 2-1.286 0.0410-1.286+01-1.286+0.252-1.286+ 0.0413-1.286+ 3-1.28600-1.286+01-1.286+0.0412-1.286+0.0833-1.2861.035 0.267+0.029+-0.148+0+0.029+0.013+-0.016+0+-0.036+0+ 0.02+ 0.048+0+0+0+0.236 0.442 Universitas Sumatera Utara 40

3.6. Normalisasi Data

Setelah tahap ekstraksi fitur, maka selanjutnya adalah tahap normalisasi data. Nilai hasil ekstraksi fitur akan dinormalisasi terlebih dahulu sebelum masuk ke tahap klasifikasi dengan backpropagation. Normalisasi data hasil ekstraksi fitur dilakukan untuk mengatur agar data yang akan dimasukkan ke jaringan backpropagation berada pada rentang tertentu. Pada penelitian ini, teknik normalisasi data yang akan digunakan adalah decimal scaling. Teknik decimal scaling akan digunakan untuk menormalisasi data fitur sehingga berada dalam rentang antara 0 sampai 1. Langkah – langkah normalisasi decimal scaling adalah sebagai berikut: mencari nilai maksimum absolut dari data yang akan dinormalisasi, dimana data tersebut memiliki jumlah atribut dan jumlah record tertentu; menentukan jumlah angka didepan titik desimal dari nilai maksimum absolut pada setiap atribut sehingga nilai pembagi masing – masing atribut dapat diperoleh; dan menormalisasi seluruh data dengan melakukan operasi pembagian nilai – nilai suatu atribut dengan nilai pembaginya. Langkah – langkah untuk menentukan nilai maksimum absolut dari setiap atribut dapat dilihat pada Gambar 3.11. Gambar 3.11. Mencari nilai maksimum absolut dari suatu atribut Langkah selanjutnya adalah menentukan jumlah angka di depan titik desimal dari nilai maksimum absolut pada setiap atribut sehingga nilai pembagi masing – masing atribut dapat diperoleh. Hal tersebut dapat dilihat pada Gambar 3.12. Tentukan data yang akan dinormalisasi jumlah atribut a, jumlah record r Inisialisasi setiap elemen matriks dimensi satu berukuran a = 0 For i=1 sampai i=r For j=1 sampai j=a If nilai mutlak pada atribut j dan record i nilai elemen matriks pada indeks j Ganti nilai matriks pada indeks j menjadi nilai mutlak End For End For Nilai maksimum absolut pada setiap atribut data diperoleh Universitas Sumatera Utara 41 Gambar 3.12. Menentukan jumlah angka di depan titik desimal dari nilai maksimum absolut pada setiap atribut Setelah nilai pembagi diperoleh, maka data siap untuk dinormalisasi. Normalisasi dilakukan dengan melakukan operasi pembagian pada nilai – nilai suatu atribut dengan nilai pembaginya. Langkah – langkah normalisasi dapat dilihat pada Gambar 3.13. Gambar 3.13. Melakukan operasi pembagian nilai – nilai atribut dengan pembaginya Pada bagian ini akan ditunjukkan ilustrasi untuk menormalisasi nilai – nilai suatu data yang dilakukan pada penelitian ini. Tabel 3.2 menunjukkan data fitur sebelum dinormalisasi dimana jumlah atribut yang dimiliki adalah 4 dan jumlah record adalah 6. Tabel. 3.2. Data fitur sebelum dinormalisasi No Data ASM 0° CON 0° IDM 0° ENT 0° 1. Keruing1.jpeg 0.013 672.333 0.067 8.979 2. Keruing2.jpeg 0.014 678.2 0.07 8.93

3. JatiPutih1.jpeg

0.024 168.299 0.121 7.871

4. JatiPutih2.jpeg

0.023 176.817 0.117 7.907 5. Mahoni1.jpeg 0.033 91.967 0.144 7.195

6. Mahoni2.jpeg

0.04 65.856 0.168 6.844 Sediakan matriks m1 yang berisi nilai maksimum absolut per atribut ukuran a Inisialisasi matriks m2 dimensi satu ukuran b For i=1 sampai i=a Tentukan jumlah digit didepan titik desimal pada m1 elemen indeks i. Simpan nilai 10 pangkat jumlah digit ke dalam matriks m2 indeks i. End For Nilai pembagi setiap atribut diperoleh Tentukan data yang akan dinormalisasi jumlah atribut a, jumlah record r Sediakan matriks yang berisi nilai pembagi per atribut ukuran b For i=1 sampai i=r For j=1 sampai j=a Membagi nilai pada atribut j dan record i dengan nilai matriks pada elemen j End For End For Universitas Sumatera Utara 42 Langkah awal yang dilakukan adalah mencari nilai maksimum absolut masing – masing atribut. Record pertama berisi data 0.013; 672.333; 0.067; 8.979. Lalu periksa record kedua apakah nilai-nilai absolut pada record kedua lebih besar dari nilai absolut pada record pertama. Jika iya, maka nilai – nilai absolut dimiliki oleh record kedua. Begitu juga seterusnya. Selanjutnya diperoleh bahwa nilai maksimum absolut pada atribut ASM0° dimiliki oleh “Mahoni2.jpeg”, nilai maksimum absolut pada atribut CON0° dimiliki oleh “Keruing2.jpeg”, nilai maksimum absolut pada atribut IDM0° dimiliki oleh “Mahoni2.jpeg” dan nilai maksimum absolut pada atribut ENT0° dimiliki oleh “Keruing1.jpeg”. Nilai maksimum absolut pada atribut ASM0°; CON0°; IDM0°; ENT0° adalah 0.04; 678.2; 0.168; 8.979. Kemudian setelah nilai absolut pada masing-masing atribut diperoleh, langkah selanjutnya adalah menentukan jumlah titik desimal di depan koma dari nilai maksimum absolut. Jumlah nilai di depan titik desimal pada nilai absolut atribut ASM0°; CON0°; IDM0°, ENT0° adalah 0; 3; 0; 1. Kemudian selanjutnya nilai pembagi pada masing-masing atribut dapat diperoleh. Diasumsikan bahwa nilai di depan titik desimal adalah m, maka nilai pembagi setiap atribut adalah 10 m sehingga didapatkan bahwa nilai pembagi pada atribut ASM0°; CON0°; IDM0°, ENT0° adalah 10 ; 10 3 ; 10 ; 10 1 . Selanjutnya, seluruh data fitur dapat dinormalisasi dengan cara membagi setiap nilai pada atributnya dengan nilai pembagi pada atributnya. Data fitur setelah dinormalisasi dapat dilihat pada Tabel 3.3. Tabel. 3.3. Data fitur setelah dinormalisasi No Data ASM 0° CON 0° IDM 0° ENT 0° 1. Keruing1.jpeg 0.013 0.672 0.067 0.898 2. Keruing2.jpeg 0.014 0.678 0.07 0.893

3. JatiPutih1.jpeg

0.024 0.168 0.121 0.787

4. JatiPutih2.jpeg

0.023 0.177 0.117 0.791

5. Mahoni1.jpeg

0.033 0.092 0.144 0.72

6. Mahoni2.jpeg

0.04 0.066 0.168 0.684 Universitas Sumatera Utara 43

3.7. Klasifikasi Menggunakan Jaringan Saraf Tiruan Backpropagation

Setelah tahap normalisasi data hasil ekstraksi fitur dilakukan, maka tahap selanjutnya adalah tahap klasifikasi citra. Pada penelitian ini, metode jaringan saraf tiruan backpropagation digunakan untuk dapat melakukan klasifikasi citra lima jenis kayu. Tahap – tahap yang dilakukan adalah sebagai berikut: tahap perancangan arsitektur jaringan saraf tiruan backpropagation, tahap pelatihan backpropagation; dan tahap pengujian backpropagation. 3.7.1. Tahap perancangan arsitektur jaringan saraf tiruan backpropagation Sebelum dilakukan proses pelatihan, maka jaringan backpropagation harus dirancang terlebih dahulu. Pada penelitian ini, arsitektur jaringan backpropagation yang akan dirancang terdiri dari 20 neuron pada lapisan input, 40 neuron pada lapisan tersembunyi, dan 5 neuron pada lapisan output. Jumlah 20 neuron pada lapisan input ditentukan berdasarkan jumlah fitur dari hasil ekstraksi. Sedangkan 5 neuron pada lapisan output ditentukan berdasarkan nilai target keluaran. Target keluaran masing- masing jenis kayu dapat dilihat pada Tabel 3.4. Tabel 3.4. Target keluaran jaringan backpropagation NO. Jenis Kayu Target Keluaran 1 Keruing 10000 2 Jati Putih 01000 3 Mahoni 00100 4 Melur 00010 5 Kempas 00001 Pada penelitian ini, arsitektur jaringan saraf tiruan yang akan dirancang dapat dilihat pada Gambar 3.14. Universitas Sumatera Utara 44 x 1 x 2 x 3 x 20 z 1 z 2 z 3 z 40 y 1 y 2 y 3 y 5 b 1 b 2 w jk v ij v oj w ok Gambar 3.14. Arsitektur jaringan saraf tiruan Adapun penjelasan arsitektur jaringan saraf tiruan pada Gambar 3.14 adalah sebagai berikut. 1. Lapisan input memiliki 20 neuron ditambah 1 neuron bias, lapisan tersembunyi memiliki 40 neuron ditambah 1 neuron bias sedangkan lapisan output memiliki 5 neuron . 2. x 1 sampai dengan x 20 adalah neuron – neuron pada lapisan input, z 1 sampai dengan z 40 adalah neuron-neuron pada lapisan tersembunyi dan y 1 sampai dengan y 5 adalah neuron – neuron pada lapisan output. 3. b 1 merupakan bias yang menuju ke lapisan tersembunyi sedangkan b 2 adalah bias yang menuju ke lapisan output. 4. v ij adalah nilai bobot koneksi antara neuron i lapisan input dengan neuron j lapisan tersembunyi. Sedangkan w jk adalah nilai bobot koneksi antara neuron j lapisan tersembunyi dengan neuron k pada lapisan output. v oj adalah bobot koneksi antara bias dengan neuron j di lapisan tersembunyi sedangkan w ok adalah bobot koneksi antara bias dengan neuron k di lapisan output. Universitas Sumatera Utara 45 3.7.2. Tahap pelatihan backpropagation Setelah jaringan dibentuk, maka tahap pelatihan jaringan menggunakan backpropagation dapat dilakukan. Tujuan dari pelatihan jaringan backpropagation adalah mengatur nilai error agar menjadi semakin kecil atau dengan kata lain membuat agar nilai output mendekati target. Setelah pelatihan jaringan selesai, bobot akhir proses pelatihan akan disimpan, dimana bobot akhir tersebut akan digunakan pada tahap pengujian. Proses pelatihan jaringan backpropagation dapat dilihat pada Gambar 3.15. Tahap awal adalah input data pelatihan ke dalam jaringan. Pada penelitian ini, terdapat 40 data masukan pada data pelatihan untuk setiap jenis kayu, sehingga total keseluruhan data masukan pada data pelatihan adalah 200 data. Setiap data masukan backpropagation terdiri dari 20 fitur hasil ekstraksi fitur yang telah dinormalisasi. Kemudian tentukan target kelas dari setiap data masukan. Lalu inisialisasi nilai seluruh bobot dan bias secara acak dalam range -1 sampai 1. Kemudian tentukan nilai parameter learning rate, maksimum_epoch dan minimum_error yang digunakan. Pelatihan akan terus dilakukan selama nilai epoch lebih kecil dari nilai maksimum epoch yang telah ditentukan. Setelah inisialisasi dilakukan, untuk setiap data masukan, lakukan fase forward dengan menghitung nilai keluaran setiap neuron pada lapisan tersembunyi z j dan lapisan output y k menggunakan persamaan 2.18 dan persamaan 2.20. Kemudian lakukan fase backward dengan menghitung faktor kesalahan pada lapisan output � dan lapisan tersembunyi � Persamaan 2.212.24. Hasil perhitungan faktor kesalahan tersebut selanjutnya akan digunakan untuk menghitung suku perubahan bobot pada lapisan output Δ dan lapisan tersembunyi � Persamaan 2.222.25. Kemudian hitung jumlah error setiap data masukan dengan menjumlahkan nilai error setiap neuron pada lapisan output. Kemudian hitung jumlah error pada setiap epoch dengan menjumlahkan hasil penjumlahan error setiap data masukan. Jika nilai error suatu epoch lebih kecil dari nilai minimum error yang ditentukan, maka iterasi akan berhenti. Begitu juga sebaliknya. Setelah iterasi berhenti, nilai bobot akhir akan disimpan untuk menjadi input bagi tahap pengujian. Universitas Sumatera Utara 46 Gambar 3.15. Proses pelatihan jaringan backpropagation Proses Pelatihan Backpropagation Tahap pelatihan backpropagation bertujuan untuk mendapatkan nilai bobot akhir yang akan digunakan pada tahap pengujian. Pelatihan jaringan backpropagation menggunakan arsitektur jaringan dengan 5 neuron input, 1 neuron hidden dan 1 neuron output akan diuraikan sebagai berikut. a. Diberikan data dengan input x 1 sampai x 5 dan target seperti yang dapat dilihat pada Tabel 3.5. Tabel 3.5. Input dan Target Data X 1 X 2 X 3 X 4 X 5 Target Gambar1 0.35 0.86 0.42 0.72 0.25 1 Gambar2 0.36 0.8 0.39 0.76 0.3 1 Tentukan arsitektur jaringan x input, z hidden, y output Inisialisasi bobot-bobot secara acak Tentukan parameter backpropagation learning rate, maksimum epoch, minimum error Input data pelatihan Tentukan target kelas For epoch = 1 sampai epoch = maksimum epoch For jumlah_data = 1 sampai jumlah_data = maksimum jumlah_data Hitung nilai keluaran setiap node pada lapisan tersembunyi Hitung nilai keluaran setiap node pada lapisan output Hitung faktor kesalahan setiap node pada lapisan output Hitung suku perubahan bobot dan bias ke lapisan output Hitung faktor kesalahan setiap node pada lapisan tersembunyi Hitung suku perubahan bobot dan bias ke lapisan tersembunyi Hitung perubahan bobot dan bias setiap node pada lapisan output Hitung perubahan bobot dan bias setiap node pada lapisan tersembunyi Hitung jumlah error dengan menjumlahkan nilai error setiap node output Akumulasikan jumlah error End For If akumulasi jumlah error = minimum error Hentikan iterasi End If End For Simpan bobot akhir Universitas Sumatera Utara 47 b. Inisialisasi bobot awal dengan nilai antara 0 sampai 1.  Inisialisasi bobot koneksi antara setiap neuron lapisan input dan lapisan tersembunyi V ji seperti yang ditunjukkan pada Tabel 3.6. Tabel 3.6. Bobot Awal V ji Bobot Awal V ji V 10 bias V 11 V 12 V 13 V 14 V 15 Nilai 0.245 0.153 0.672 0.353 0.791 0.534  Inisialisasi bobot koneksi antara setiap neuron lapisan tersembunyi dan lapisan output W kj seperti yang ditunjukkan pada Tabel 3.7. Tabel 3.7. Bobot Awal W kj Bobot Awal W kj W 10 W 11 Nilai 0.362 0.785 c. Tentukan nilai parameter learning rate, maksimum epoch, dan minimum error.  learning rate = 0.5  maksimum epoch= 2  minimum error = 0.01 d. Iterasi dilakukan selama nilai epoch maksimal epoch dan nilai error minimum error. e. Lakukan langkah – langkah pada fase arah maju forward.  Hitung nilai _� � pada node di lapisan tersembunyi dengan menggunakan persamaan 2.17. _� � = = = 10.245 + 0.350.153 + 0.860.672 + 0.420.353 + 0.720.791 + 0.250.534 0.245 + 0.05355 + 0.57792 + 0.14826 + 0.56952 + 0.1335 1.72775  Kemudian hitung nilai keluaran z j pada node di lapisan tersembunyi menggunakan persamaan 2.18 menggunakan fungsi aktivasi sigmoid biner. = _� � = 1 1 + − . = 0.84912 Universitas Sumatera Utara 48  Hitung nilai _� � pada node di lapisan output menggunakan persamaan 2.19. _� � = = = 10.362 + 0.849120.785 0.362 + 0.66656 1.02856  Kemudian hitung nilai keluaran y k pada node di lapisan output menggunakan persamaan 2.20 menggunakan fungsi aktivasi sigmoid biner. = _� � = 1 1 + − . = 0.73664 f. Lakukan langkah – langkah pada fase arah mundur backward.  Hitung faktor � di unit keluaran dengan menggunakan persamaan 2.21. � = 1 - 0.73664 0.73664 1 – 0.73664 = 0.26336 0.73664 0.26336 = 0.05109  Hitung suku perubahan bobot dengan menggunakan persamaan 2.22. Δ = 0.5 0.05109 1 = 0.025545 = 0.02555 Δ = 0.5 0.05109 0.84912 = 0.02169  Hitung penjumlahan �_� � j pada unit tersembunyi dengan menggunakan persamaan 2.23. �_� � 1 = 0.05109 0.785 = 0.04010565 = 0.04011  Hitung faktor � pada unit tersembunyi menggunakan persamaan 2.24. � 1 = 0.04011 0.84912 1 - 0.84912 = 0.005138702 = 0.00514  Hitung suku perubahan bobot dengan menggunakan persamaan 2.25. Δ = 0.5 0.00514 1 = 0.00257 Δ = 0.5 0.00514 0.35 = 0.0009 Δ = 0.5 0.00514 0.86 = 0.00221 Universitas Sumatera Utara 49 Δ = 0.5 0.00514 0.42 = 0.00108 Δ = 0.5 0.00514 0.72 = 0.00185 Δ = 0.5 0.00514 0.25 = 0.00064 g. Hitung perubahan bobot jaringan backpropagation.  Hitung bobot baru setiap node lapisan output menggunakan persamaan 2.26. = 0.362 + 0.02555 = 0.38755 = 0.785 + 0.02169 = 0.80669  Hitung bobot baru setiap node lapisan tersembunyi dengan persamaan 2.27. = 0.245 + 0.00257 = 0.24757 = 0.153 + 0.0009 = 0.1539 = 0.672 + 0.00221 = 0.67421 = 0.353 + 0.00108 = 0.35408 = 0.791 + 0.00185 = 0.79285 = 0.534 + 0.00064 = 0.53464 h. Hitung nilai error jaringan dengan menambahkan jumlah nilai error setiap node pada lapisan output. Karena neuron output hanya satu maka, Error = 0.05109 3.7.3. Tahap pengujian backpropagation Proses pengujian jaringan backpropagation dilakukan dengan hanya melaksanakan fase arah maju feed forward. Pada tahap ini, data yang akan diuji merupakan data hasil ekstraksi fitur yang telah dinormalisasi, dimana data tersebut bukan termasuk data pelatihan. Kemudian bobot yang digunakan pada fase feed forward adalah bobot hasil pelatihan. Lalu dilakukan perhitungan nilai keluaran dari setiap node pada lapisan tersembunyi dan lapisan output. Kemudian dilakukan pengujian terhadap hasil keluaran setiap node pada lapisan output . Jika hasil keluaran node lebih besar dari 0,5 maka nilai keluaran pada node Universitas Sumatera Utara 50 tersebut akan diubah menjadi 1. Sebaliknya nilai keluaran pada node akan diubah menjadi 0 jika nilai keluaran pada node tersebut lebih kecil dari 0,5. Proses pengujian jaringan backpropagation terhadap hasil identifikasi jenis kayu dapat dilihat pada Gambar 3.16. Gambar 3.16. Proses pengujian jaringan backpropagation Proses Pengujian Backpropagation Pada proses pengujian backpropagation, data uji akan menjadi masukkan bagi jaringan backpropagation dan bobot yang digunakan adalah bobot hasil pelatihan. Contoh langkah - langkah pengujian backpropagation dengan menggunakan nilai bobot hasil pelatihan adalah sebagai berikut.  Masukkan data uji ke dalam jaringan. Data uji ditunjukkan pada Tabel 3.8. Tabel 3.8. Data uji Data X 1 X 2 X 3 X 4 X 5 Gambar2 0.45 0.64 0.38 0.31 0.60  Gunakan bobot hasil pelatihan seperti yang ditunjukkan pada Tabel 3.9 dan Tabel 3.10. Tabel 3.9. Bobot Vkj baru Bobot V 10 V 11 V 12 V 13 V 14 V 15 Nilai 0.24757 0.1539 0.67421 0.35408 0.79285 0.53464 Tentukan arsitektur jaringan x input, z hidden, y output Input data pengujian dan bobot akhir hasil pelatihan Hitung nilai keluaran setiap node pada lapisan tersembunyi Hitung nilai keluaran setiap node pada lapisan output For i=1 sampai i=y If nilai keluaran node i pada lapisan output = 0.5 Output = 1 Else Output = 0 End If End For Pencocokan nilai output dengan target keluaran Tampilkan hasil pengujian Universitas Sumatera Utara 51 Tabel 3.10. Bobot Wkj baru Bobot W 10 W 11 Nilai 0.38755 0.80669  Hitung nilai _� � pada node di lapisan tersembunyi dengan menggunakan persamaan 2.17. _� � = = = 10.24757 + 0.450.1539 + 0.640.67421 + 0.380.35408 + 0.310.79285 + 0.60.53464 0.24757 + 0.069255 + 0.4314944 + 0.1345504 + 0.2457835 + 0.320784 1.4494373 = 1.44944  Kemudian hitung nilai keluaran z j pada node di lapisan tersembunyi menggunakan persamaan 2.18 menggunakan fungsi aktivasi sigmoid biner. = _� � = 1 1 + − . = 0.80991  Hitung nilai _� � pada node di lapisan output dengan menggunakan persamaan 2.19. _� � = = = 10.3875 + 0.809910.80669 0.3875 + 0.653346298 1.040846298 = 1.04085  Kemudian hitung nilai keluaran y k pada node di lapisan output menggunakan persamaan 2.20 menggunakan fungsi sigmoid biner. = _� � = 1 1 + − . = 0.73901  Nilai keluaran adalah 0.73901, dimana 0.73901 0.5. Maka nilai memenuhi target 1. Universitas Sumatera Utara 52

3.8. Perancangan Sistem