32
Citra yang telah dikumpulkan akan dibagi ke dalam dua kelompok data yaitu data latih dan data uji. Data latih berjumlah 80 dari data citra keseluruhan sedangkan
data uji berjumlah 20 dari data citra keseluruhan sehingga pada penelitian ini data latih untuk setiap jenis kayu berjumlah 40 buah sedangkan data uji untuk setiap jenis
kayu berjumlah 10 buah.
3.4. Pra-Pengolahan
Tahap pra-pengolahan citra adalah tahap pengolahan citra untuk menghasilkan citra yang lebih baik untuk diproses ke tahap selanjutnya yaitu tahap ekstraksi fitur. Pada
penelitian ini pra-pengolahan citra yang dilakukan adalah memperkecil ukuran citra scaling dan pembentukan citra aras keabuan grayscaling.
3.4.1. Memperkecil ukuran citra Scaling
Proses akuisisi citra menghasikan citra dengan ukuran 2560 x 1920 piksel. Citra hasil akuisisi memiliki ukuran yang cukup besar sehingga perlu dilakukan proses
memperkecil ukuran citra. Pada penelitian ini seluruh citra hasil akuisisi akan diperkecil ukurannya menjadi 160 x 120 piksel.
3.4.2. Pembentukan citra aras keabuan Grayscaling
Kemudian setelah proses scaling, citra akan diproses dari bentuk RGB ke dalam bentuk citra aras keabuan. Tahap ini dilakukan agar citra dapat diproses pada tahap ekstraksi
fitur. Contoh proses grayscaling citra dari bentuk RGB ke bentuk grayscale ditunjukkan pada Gambar 3.3.
a b
Gambar 3.3. a Citra kayu RGB b Citra kayu grayscale
Adapun langkah - langkah proses grayscaling dapat dilihat pada Gambar 3.4.
Universitas Sumatera Utara
33
Gambar 3.4. Langkah - langkah proses grayscaling
3.5. Ekstraksi Fitur
Setelah citra diubah ke dalam bentuk citra aras keabuan grayscale, maka langkah selanjutnya adalah tahap ekstraksi fitur. Ekstraksi fitur dilakukan untuk mendapatkan
nilai yang dapat merepresentasikan citra. Pada penelitian ini, metode yang digunakan untuk ekstraksi fitur citra adalah Gray Level Co-Occurrence Matrix GLCM. GLCM
adalah matriks yang menunjukkan probabilitas nilai keabuan piksel referensi dengan nilai keabuan piksel tetangga berdasarkan jarak dan arah tertentu.
Langkah - langkah yang akan dilakukan pada ekstraksi fitur menggunakan GLCM adalah sebagai berikut.
1. Menentukan nilai gray level pada citra. Nilai gray level yang digunakan adalah 256.
2. Membentuk matriks framework berdasarkan nilai gray level yang telah ditentukan.
3. Menentukan jarak dan arah yang digunakan untuk membentuk matriks kookurensi. Pada penelitian ini, jarak yang digunakan adalah 1 dan arah yang
digunakan adalah 0°, 45°, 90° dan° 135°. 4. Membentuk matriks kookurensi berdasarkan jarak dan arah yang dipilih.
5. Membentuk matriks simetris dengan cara menambahkan matriks kookurensi dengan transpose matriks kookurensi tersebut.
6. Melakukan normalisasi terhadap matriks simetris dengan cara membagi nilai setiap elemen matriks simetris dengan penjumlahan seluruh nilai elemen
pada matriks simetris. Masukkan citra RGB fh,w dengan tinggi h, lebar w.
For i=0 sampai i=h-1 For j=0 sampai j=w-1
Ambil nilai komponen R, G dan B pada kolom i baris j pada citra fh,w Hitung nilai Grayscale pada posisi kolom i baris j pada citra fh,w dengan
menjumlahkan nilai tiap komponen RGB di posisi tersebut kemudian dibagi dengan 3.
End For End For
Proses grayscaling berakhir
Universitas Sumatera Utara
34
7. Menghitung fitur statistik dari matriks yang telah dinormalisasi. Fitur yang akan digunakan adalah angular second moment, contrast, inverse difference
moment, entropy dan correlation.
3.5.1. Pembentukan GLCM
Dalam membentuk matriks kookurensi, penentuan piksel referensi dan piksel tetangga dilakukan berdasarkan arah yang dipilih. Untuk pembentukan GLCM dengan arah 0°
dapat dilihat pada Gambar 3.5.
Gambar 3.5. Proses pembentukan matriks kookurensi arah 0°
Untuk pembentukan GLCM dengan arah 45° dapat dilihat pada Gambar 3.6.
Gambar 3.6. Proses pembentukan matriks kookurensi arah 45°
Input citra grayscale nilai gray level G, tinggi h, lebar w Tentukan jarak d, arah adalah 0°
Inisialisasi penghitung piksel dalam citra pixelCounter = 0 Membentuk matriks framework m berukuran G x G
For i=0 sampai i=h
– 1
For j=0 sampai j= w
– d – 1 Tentukan piksel referensi nilai intensitas keabuan pada citra di posisi i, j
Tentukan piksel tetangga nilai intensitas keabuan pada citra di posisi i, j+d Menambahkan nilai 1 pada elemen m posisi piksel referensi, piksel tetangga
Menambahkan nilai 1 pada elemen m posisi piksel tetangga, piksel referensi Menambahkan nilai pixelCounter dengan 2
End For End For
Input citra grayscale nilai gray level G, tinggi h, lebar w Tentukan jarak d, arah adalah 45°
Inisialisasi penghitung piksel dalam citra pixelCounter = 0 Membentuk matriks framework m berukuran G x G
For i=d sampai i=h
– 1
For j=0 sampai j = w
– d – 1 Tentukan piksel referensi nilai intensitas keabuan pada citra di posisi i, j
Tentukan piksel tetangga nilai intensitas keabuan pada citra di posisi i-d, j+d Menambahkan nilai 1 pada elemen m posisi piksel referensi, piksel tetangga
Menambahkan nilai 1 pada elemen m posisi piksel tetangga, piksel referensi Menambahkan nilai pixelCounter dengan 2
End For
End For
Universitas Sumatera Utara
35
Untuk pembentukan GLCM dengan arah 90° dapat dilihat pada Gambar 3.7.
Gambar 3.7. Proses pembentukan matriks kookurensi arah 90°
Untuk pembentukan GLCM dengan arah 135° dapat dilihat pada Gambar 3.8.
Gambar 3.8. Proses pembentukan matriks kookurensi arah 135°
Langkah – langkah yang telah diuraikan sebelumnya adalah langkah-langkah
untuk membuat matriks kookurensi yang simetris karena sudah ada penambahan elemen transpose. Setelah matriks sudah simetris, kemudian langkah selanjutnya adalah
menormalisasi matriks simetris. Gambar 3.9 menunjukkan proses normalisasi matriks simetris dari arah tertentu.
Input citra grayscale nilai gray level G, tinggi h, lebar w Tentukan jarak d, arah adalah 90°
Inisialisasi penghitung piksel dalam citra pixelCounter = 0 Membentuk matriks framework m berukuran G x G
For i=d sampai i = h
– 1
For j=0 sampai j = w
– 1 Tentukan piksel referensi nilai intensitas keabuan pada citra di posisi i, j
Tentukan piksel tetangga nilai intensitas keabuan pada citra di posisi i-d, j Menambahkan nilai 1 pada elemen m posisi piksel referensi, piksel tetangga
Menambahkan nilai 1 pada elemen m posisi piksel tetangga, piksel referensi Menambahkan nilai pixelCounter dengan 2
End For End For
Input citra grayscale nilai gray level G, tinggi h, lebar w Tentukan jarak d, arah adalah 135°
Inisialisasi penghitung piksel dalam citra pixelCounter = 0 Membentuk matriks framework m berukuran G x G
For i=d sampai i = h
– 1
For j=d sampai j = w
– 1 Tentukan piksel referensi nilai intensitas keabuan pada citra di posisi i, j
Tentukan piksel tetangga nilai intensitas keabuan pada citra di posisi i-d, j-d Menambahkan nilai 1 pada elemen m posisi piksel referensi, piksel tetangga
Menambahkan nilai 1 pada elemen m posisi piksel tetangga, piksel referensi Menambahkan nilai pixelCounter dengan 2
End For End For
Universitas Sumatera Utara
36
Gambar 3.9. Normalisasi matriks simetris
Setelah itu, nilai fitur statistik dapat dihitung berdasarkan matriks yang telah dinormalisasi. Pada penelitian ini, ekstraksi fitur GLCM menghasilkan 5 fitur statistik.
Masing-masing fitur statistik terdiri dari empat arah 0°, 45°, 90° dan° 135° sehingga jumlah fitur yang akan diproses pada tahap klasifikasi adalah 5 x 4 = 20 fitur. Contoh
hasil ekstraksi fitur dari sebuah citra ditunjukkan pada Tabel 3.1.
Tabel 3.1. Contoh nilai hasil ekstraksi fitur GLCM No
Fitur Arah
Nilai 1.
Angular Second Moment 0°
0.022
2. Angular Second Moment
45° 0.021
3. Angular Second Moment
90° 0.024
4. Angular Second Moment
135° 0.02
5. Contrast
0° 69.207
6. Contrast
45° 89.911
7. Contrast
90° 53.127
8. Contrast
135° 95.713
9. Inverse Difference Moment
0° 0.153
10. Inverse Difference Moment 45°
0.136
11. Inverse Difference Moment 90°
0.176
12. Inverse Difference Moment 135°
0.135
13. Entropy 0°
7.947
14. Entropy 45°
8.067
15. Entropy 90°
7.817
16. Entropy 135°
8.089
17. Correlation 0°
0.002
18. Correlation 45°
0.002
19. Correlation 90°
0.002
20. Correlation 135°
0.002 Sediakan matriks simetris yang akan dinormalisasi berukuran G x G beserta nilai
penghitung piksel dalam citra pixelCounter For i=0 sampai i = G
– 1
For j=0 sampai j = G
– 1 Membagi nilai elemen matriks m pada posisi i, j dengan pixelCounter
End For End For
Universitas Sumatera Utara
37
3.5.2. Ekstraksi nilai fitur
Ekstraksi nilai fitur GLCM bertujuan untuk mendapatkan nilai fitur dari matriks yang telah dinormalisasi. Pada bagian ini, akan diuraikan proses perhitungan lima fitur
Haralick berdasarkan matriks normalisasi 0° berukuran 4 x 4 yang dapat dilihat pada Gambar 3.10.
0.167 0.083 0.041 0.083 0.167
0.041 0.25 0.041
0.041 0.083
Gambar 3.10. Matriks Normalisasi
Perhitungan fitur Angular Second Moment ASM dari matriks pada Gambar 3.10 menggunakan persamaan 2.2 adalah sebagai berikut.
ASM=
=
= 0.167 0.167 + 0.083 0.083 + 0.041 0.041+ 0 0 +
0.083 0.083 + 0.167 0.167 + 0 0 + 0 0 + 0.041 0.041 + 0 0 + 0.25 0.25 + 0.041 0.041 +
0 0 + 0 0 + 0.041 0.041 + 0.083 0.083 0.027889 + 0.006889 + 0.001681 + 0 + 0.006889 + 0.027889 + 0 + 0 +
0.001681 + 0 + 0.0625 + 0.001681 + 0 + 0 + 0.001681 + 0.006889 0.145669
Perhitungan fitur Contrast CON dari matriks pada Gambar 3.10 menggunakan persamaan 2.4 adalah sebagai berikut.
CON= 0.167 0-0
2
+ 0.083 0-1
2
+ 0.041 0-2
2
+ 00-3
2
+ 0.083 1-0
2
+ 0.167 1-1
2
+ 0 1-2
2
+ 0 1-3
2
+ 0.041 2-0
2
+ 0 2-1
2
+ 0.25 2-2
2
+ 0.041 2-3
2
+ 0 3-0
2
+ 0 3-1
2
+ 0.041 3-2
2
+ 0.083 3-3
2
Universitas Sumatera Utara
38
=
= 0 + 0.083 + 0.164 + 0 + 0.083 + 0 + 0 + 0 + 0.164 + 0 + 0 + 0.041 +
0 + 0 + 0.041 + 0 0.576
Perhitungan fitur Inverse Difference Moment IDM dari matriks pada Gambar 3.10 menggunakan persamaan 2.5 adalah sebagai berikut.
IDM=
=
= 0.1671+ 0-0
2
+ 0.083 1+0-1
2
+ 0.0411+0-2
2
+ 01+0-3
2
+ 0.083 1+ 1-0
2
+ 0.167 1+1-1
2
+ 01+1-2
2
+ 01+1-3
2
+ 0.041 1+ 2-0
2
+ 0 1+2-1
2
+ 0.251+2-2
2
+ 0.0411+2-3
2
+ 0 1+ 3-0
2
+ 0 1+3-1
2
+ 0.0411+3-2
2
+ 0.0831+3-3
2
0.167 + 0.0415 + 0.0082 + 0 + 0.0415 + 0.167 + 0 + 0 + 0.0082 + 0 + 0.25 + 0.0205 +0 + 0 + 0.0205 + 0.083
0.8074
Perhitungan fitur Entropy ENT dari matriks pada Gambar 3.10 menggunakan persamaan 2.3 adalah sebagai berikut.
ENT=
=
= 0.167 -ln0.167 + 0.083 -ln0.083 + 0.041 -ln0.041+ 0+
0.083 -ln0.083 + 0.167 -ln0.167 + 0 + 0 + 0.041 -ln0.041 + 0 + 0.25 -ln0.25 + 0.041 -ln0.041
0 + 0 + 0.041 -ln0.041 + 0.083 -ln0.083 0.2989 + 0.2066 + 0.131 + 0 + 0.2066 + 0.2989 + 0 + 0 + 0.131 + 0 + 0.346 +
0.131 + 0 + 0 + 0.131 + 0.206 2.087
Untuk menghitung nilai correlation, perhitungan nilai mean � dan variance
� dilakukan terlebih dahulu. Hasil perhitungan � dan � bernilai sama. Begitu juga
dengan � dan � . Oleh karena itu dalam menghitung nilai correlation, nilai mean dan
variance yang akan digunakan adalah perhitungan berdasarkan piksel referensi i atau
perhitungan berdasarkan piksel tetangga j.
Universitas Sumatera Utara
39
Perhitungan nilai mean berdasarkan Gambar 3.10 menggunakan persamaan 2.7 adalah sebagai berikut.
�
i
=
=
= 0 0.167 + 0 0.083 + 0 0.041+ 0 0 +
1 0.083 + 1 0.167 + 1 0 + 1 0 + 2 0.041 + 2 0 + 2 0.25 + 2 0.041 +
3 0 + 3 0 + 3 0.041 + 3 0.083 0 + 0 + 0 + 0 + 0.083 + 0.167 + 0 + 0 + 0.082 + 0 + 0.5 + 0.082 + 0 + 0 +
0.123 + 0.249 1.286
Perhitungan nilai variance berdasarkan Gambar 3.10 menggunakan persamaan 2.9 adalah sebagai berikut.
� =
=
= 0.1670-1.286
2
+ 0.0830-1.286
2
+ 0.0410-1.286
2
+ 00-1.286
2
+0.0831-1.286
2
+ 0.1671-1.286
2
+ 01-1.286
2
+ 0 1-1.286
2
+ 0.0412-1.286
2
+ 02-1.286
2
+ 0.252-1.286
2
+ 0.0412-1.286
2
+03-1.286
2
+ 03-1.286
2
+ 0.0413-1.286
2
+ 0.0833-1.286
2
0.276 + 0.137 + 0.068 + 0 + 0.007 + 0.014 + 0 + 0 + 0.021 + 0 + 0.127 + 0.021 + 0 + 0 + 0.12 + 0.244
1.035
Perhitungan nilai fitur Correlation COR dari matriks pada Gambar 3.10 menggunakan persamaan 2.6 adalah sebagai berikut.
COR=
=
= 0-1.2860.1670-1.286+0.0831-1.286+ 0.0412-1.286 + 03-1.286
+1-1.2860.0830-1.286+0.1671-1.286+02-1.286+ 03-1.286+ 2-1.286 0.0410-1.286+01-1.286+0.252-1.286+ 0.0413-1.286+
3-1.28600-1.286+01-1.286+0.0412-1.286+0.0833-1.2861.035 0.267+0.029+-0.148+0+0.029+0.013+-0.016+0+-0.036+0+ 0.02+
0.048+0+0+0+0.236 0.442
Universitas Sumatera Utara
40
3.6. Normalisasi Data
Setelah tahap ekstraksi fitur, maka selanjutnya adalah tahap normalisasi data. Nilai hasil ekstraksi fitur akan dinormalisasi terlebih dahulu sebelum masuk ke tahap klasifikasi
dengan backpropagation. Normalisasi data hasil ekstraksi fitur dilakukan untuk mengatur agar data yang akan dimasukkan ke jaringan backpropagation berada pada
rentang tertentu. Pada penelitian ini, teknik normalisasi data yang akan digunakan adalah decimal scaling. Teknik decimal scaling akan digunakan untuk menormalisasi
data fitur sehingga berada dalam rentang antara 0 sampai 1. Langkah
– langkah normalisasi decimal scaling adalah sebagai berikut: mencari nilai maksimum absolut dari data yang akan dinormalisasi, dimana data tersebut
memiliki jumlah atribut dan jumlah record tertentu; menentukan jumlah angka didepan titik desimal dari nilai maksimum absolut pada setiap atribut sehingga nilai pembagi
masing – masing atribut dapat diperoleh; dan menormalisasi seluruh data dengan
melakukan operasi pembagian nilai – nilai suatu atribut dengan nilai pembaginya.
Langkah – langkah untuk menentukan nilai maksimum absolut dari setiap
atribut dapat dilihat pada Gambar 3.11.
Gambar 3.11. Mencari nilai maksimum absolut dari suatu atribut
Langkah selanjutnya adalah menentukan jumlah angka di depan titik desimal dari nilai maksimum absolut pada setiap atribut sehingga nilai pembagi masing
– masing atribut dapat diperoleh. Hal tersebut dapat dilihat pada Gambar 3.12.
Tentukan data yang akan dinormalisasi jumlah atribut a, jumlah record r Inisialisasi setiap elemen matriks dimensi satu berukuran a = 0
For i=1 sampai i=r
For j=1 sampai j=a If nilai mutlak pada atribut j dan record i nilai elemen matriks pada indeks j
Ganti nilai matriks pada indeks j menjadi nilai mutlak
End For End For
Nilai maksimum absolut pada setiap atribut data diperoleh
Universitas Sumatera Utara
41
Gambar 3.12. Menentukan jumlah angka di depan titik desimal dari nilai
maksimum absolut pada setiap atribut
Setelah nilai pembagi diperoleh, maka data siap untuk dinormalisasi. Normalisasi dilakukan dengan melakukan operasi pembagian pada nilai
– nilai suatu atribut dengan nilai pembaginya. Langkah
– langkah normalisasi dapat dilihat pada Gambar 3.13.
Gambar 3.13. Melakukan operasi pembagian nilai – nilai atribut dengan
pembaginya
Pada bagian ini akan ditunjukkan ilustrasi untuk menormalisasi nilai – nilai
suatu data yang dilakukan pada penelitian ini. Tabel 3.2 menunjukkan data fitur sebelum dinormalisasi dimana jumlah atribut yang dimiliki adalah 4 dan jumlah record
adalah 6.
Tabel. 3.2. Data fitur sebelum dinormalisasi No
Data ASM 0°
CON 0° IDM 0°
ENT 0° 1.
Keruing1.jpeg 0.013
672.333 0.067
8.979
2. Keruing2.jpeg
0.014 678.2
0.07 8.93
3. JatiPutih1.jpeg
0.024 168.299
0.121 7.871
4. JatiPutih2.jpeg
0.023 176.817
0.117 7.907
5.
Mahoni1.jpeg 0.033
91.967 0.144
7.195
6. Mahoni2.jpeg
0.04 65.856
0.168 6.844
Sediakan matriks m1 yang berisi nilai maksimum absolut per atribut ukuran a Inisialisasi matriks m2 dimensi satu ukuran b
For i=1 sampai i=a
Tentukan jumlah digit didepan titik desimal pada m1 elemen indeks i. Simpan nilai 10 pangkat jumlah digit ke dalam matriks m2 indeks i.
End For Nilai pembagi setiap atribut diperoleh
Tentukan data yang akan dinormalisasi jumlah atribut a, jumlah record r Sediakan matriks yang berisi nilai pembagi per atribut ukuran b
For i=1 sampai i=r
For j=1 sampai j=a
Membagi nilai pada atribut j dan record i dengan nilai matriks pada elemen j
End For End For
Universitas Sumatera Utara
42
Langkah awal yang dilakukan adalah mencari nilai maksimum absolut masing – masing atribut. Record pertama berisi data 0.013; 672.333; 0.067; 8.979. Lalu periksa
record kedua apakah nilai-nilai absolut pada record kedua lebih besar dari nilai absolut
pada record pertama. Jika iya, maka nilai – nilai absolut dimiliki oleh record kedua.
Begitu juga seterusnya. Selanjutnya diperoleh bahwa nilai maksimum absolut pada atribut ASM0°
dimiliki oleh “Mahoni2.jpeg”, nilai maksimum absolut pada atribut CON0° dimiliki oleh “Keruing2.jpeg”, nilai maksimum absolut pada atribut IDM0° dimiliki oleh
“Mahoni2.jpeg” dan nilai maksimum absolut pada atribut ENT0° dimiliki oleh “Keruing1.jpeg”. Nilai maksimum absolut pada atribut ASM0°; CON0°; IDM0°;
ENT0° adalah 0.04; 678.2; 0.168; 8.979. Kemudian setelah nilai absolut pada masing-masing atribut diperoleh, langkah
selanjutnya adalah menentukan jumlah titik desimal di depan koma dari nilai maksimum absolut. Jumlah nilai di depan titik desimal pada nilai absolut atribut
ASM0°; CON0°; IDM0°, ENT0° adalah 0; 3; 0; 1. Kemudian selanjutnya nilai pembagi pada masing-masing atribut dapat diperoleh. Diasumsikan bahwa nilai di
depan titik desimal adalah m, maka nilai pembagi setiap atribut adalah 10
m
sehingga didapatkan bahwa nilai pembagi pada atribut ASM0°; CON0°; IDM0°, ENT0° adalah
10 ; 10
3
; 10 ; 10
1
. Selanjutnya, seluruh data fitur dapat dinormalisasi dengan cara membagi setiap
nilai pada atributnya dengan nilai pembagi pada atributnya. Data fitur setelah dinormalisasi dapat dilihat pada Tabel 3.3.
Tabel. 3.3. Data fitur setelah dinormalisasi No
Data ASM 0°
CON 0° IDM 0°
ENT 0° 1.
Keruing1.jpeg 0.013
0.672 0.067
0.898
2. Keruing2.jpeg
0.014 0.678
0.07 0.893
3. JatiPutih1.jpeg
0.024 0.168
0.121 0.787
4. JatiPutih2.jpeg
0.023 0.177
0.117 0.791
5. Mahoni1.jpeg
0.033 0.092
0.144 0.72
6. Mahoni2.jpeg
0.04 0.066
0.168 0.684
Universitas Sumatera Utara
43
3.7. Klasifikasi Menggunakan Jaringan Saraf Tiruan Backpropagation
Setelah tahap normalisasi data hasil ekstraksi fitur dilakukan, maka tahap selanjutnya adalah tahap klasifikasi citra. Pada penelitian ini, metode jaringan saraf tiruan
backpropagation digunakan untuk dapat melakukan klasifikasi citra lima jenis kayu.
Tahap – tahap yang dilakukan adalah sebagai berikut: tahap perancangan arsitektur
jaringan saraf tiruan backpropagation, tahap pelatihan backpropagation; dan tahap pengujian backpropagation.
3.7.1. Tahap perancangan arsitektur jaringan saraf tiruan backpropagation
Sebelum dilakukan proses pelatihan, maka jaringan backpropagation harus dirancang terlebih dahulu. Pada penelitian ini, arsitektur jaringan backpropagation yang akan
dirancang terdiri dari 20 neuron pada lapisan input, 40 neuron pada lapisan tersembunyi, dan 5 neuron pada lapisan output. Jumlah 20 neuron pada lapisan input
ditentukan berdasarkan jumlah fitur dari hasil ekstraksi. Sedangkan 5 neuron pada lapisan output ditentukan berdasarkan nilai target keluaran. Target keluaran masing-
masing jenis kayu dapat dilihat pada Tabel 3.4.
Tabel 3.4. Target keluaran jaringan backpropagation
NO. Jenis Kayu
Target Keluaran 1
Keruing 10000
2 Jati Putih
01000
3 Mahoni
00100
4 Melur
00010
5 Kempas
00001 Pada penelitian ini, arsitektur jaringan saraf tiruan yang akan dirancang dapat
dilihat pada Gambar 3.14.
Universitas Sumatera Utara
44
x
1
x
2
x
3
x
20
z
1
z
2
z
3
z
40
y
1
y
2
y
3
y
5
b
1
b
2
w
jk
v
ij
v
oj
w
ok
Gambar 3.14. Arsitektur jaringan saraf tiruan
Adapun penjelasan arsitektur jaringan saraf tiruan pada Gambar 3.14 adalah sebagai berikut.
1. Lapisan input memiliki 20 neuron ditambah 1 neuron bias, lapisan tersembunyi memiliki 40 neuron ditambah 1 neuron bias sedangkan lapisan output memiliki 5
neuron .
2. x
1
sampai dengan x
20
adalah neuron – neuron pada lapisan input, z
1
sampai dengan z
40
adalah neuron-neuron pada lapisan tersembunyi dan y
1
sampai dengan y
5
adalah neuron – neuron pada lapisan output.
3. b
1
merupakan bias yang menuju ke lapisan tersembunyi sedangkan b
2
adalah bias yang menuju ke lapisan output.
4. v
ij
adalah nilai bobot koneksi antara neuron i lapisan input dengan neuron j lapisan tersembunyi. Sedangkan w
jk
adalah nilai bobot koneksi antara neuron j lapisan tersembunyi dengan neuron k pada lapisan output. v
oj
adalah bobot koneksi antara bias dengan neuron j di lapisan tersembunyi sedangkan w
ok
adalah bobot koneksi antara bias dengan neuron k di lapisan output.
Universitas Sumatera Utara
45
3.7.2. Tahap pelatihan backpropagation
Setelah jaringan dibentuk, maka tahap pelatihan jaringan menggunakan backpropagation
dapat dilakukan. Tujuan dari pelatihan jaringan backpropagation adalah mengatur nilai error agar menjadi semakin kecil atau dengan kata lain membuat
agar nilai output mendekati target. Setelah pelatihan jaringan selesai, bobot akhir proses pelatihan akan disimpan, dimana bobot akhir tersebut akan digunakan pada tahap
pengujian. Proses pelatihan jaringan backpropagation dapat dilihat pada Gambar 3.15. Tahap awal adalah input data pelatihan ke dalam jaringan. Pada penelitian ini,
terdapat 40 data masukan pada data pelatihan untuk setiap jenis kayu, sehingga total keseluruhan data masukan pada data pelatihan adalah 200 data. Setiap data masukan
backpropagation terdiri dari 20 fitur hasil ekstraksi fitur yang telah dinormalisasi.
Kemudian tentukan target kelas dari setiap data masukan. Lalu inisialisasi nilai seluruh bobot dan bias secara acak dalam range -1 sampai 1. Kemudian tentukan nilai parameter
learning rate, maksimum_epoch dan minimum_error yang digunakan. Pelatihan akan
terus dilakukan selama nilai epoch lebih kecil dari nilai maksimum epoch yang telah ditentukan.
Setelah inisialisasi dilakukan, untuk setiap data masukan, lakukan fase forward dengan menghitung nilai keluaran setiap neuron pada lapisan tersembunyi z
j
dan lapisan output y
k
menggunakan persamaan 2.18 dan persamaan 2.20. Kemudian lakukan fase backward dengan menghitung faktor kesalahan pada lapisan output
� dan lapisan tersembunyi
� Persamaan 2.212.24. Hasil perhitungan faktor kesalahan tersebut selanjutnya akan digunakan untuk menghitung suku perubahan
bobot pada lapisan output Δ
dan lapisan tersembunyi � Persamaan
2.222.25. Kemudian hitung jumlah error setiap data masukan dengan menjumlahkan nilai error setiap neuron pada lapisan output. Kemudian hitung jumlah
error pada setiap epoch dengan menjumlahkan hasil penjumlahan error setiap data
masukan. Jika nilai error suatu epoch lebih kecil dari nilai minimum error yang
ditentukan, maka iterasi akan berhenti. Begitu juga sebaliknya. Setelah iterasi berhenti, nilai bobot akhir akan disimpan untuk menjadi input bagi tahap pengujian.
Universitas Sumatera Utara
46
Gambar 3.15. Proses pelatihan jaringan backpropagation
Proses Pelatihan Backpropagation Tahap pelatihan backpropagation bertujuan untuk mendapatkan nilai bobot akhir yang
akan digunakan pada tahap pengujian. Pelatihan jaringan backpropagation menggunakan arsitektur jaringan dengan 5 neuron input, 1 neuron hidden dan 1 neuron
output akan diuraikan sebagai berikut.
a. Diberikan data dengan input x
1
sampai x
5
dan target seperti yang dapat dilihat pada Tabel 3.5.
Tabel 3.5. Input dan Target
Data X
1
X
2
X
3
X
4
X
5
Target
Gambar1 0.35
0.86 0.42
0.72 0.25
1 Gambar2
0.36 0.8
0.39 0.76
0.3 1
Tentukan arsitektur jaringan x input, z hidden, y output Inisialisasi bobot-bobot secara acak
Tentukan parameter backpropagation learning rate, maksimum epoch, minimum error
Input data pelatihan Tentukan target kelas
For epoch = 1 sampai epoch = maksimum epoch For
jumlah_data = 1 sampai jumlah_data = maksimum jumlah_data
Hitung nilai keluaran setiap node pada lapisan tersembunyi Hitung nilai keluaran setiap node pada lapisan output
Hitung faktor kesalahan setiap node pada lapisan output Hitung suku perubahan bobot dan bias ke lapisan output
Hitung faktor kesalahan setiap node pada lapisan tersembunyi Hitung suku perubahan bobot dan bias ke lapisan tersembunyi
Hitung perubahan bobot dan bias setiap node pada lapisan output Hitung perubahan bobot dan bias setiap node pada lapisan tersembunyi
Hitung jumlah error dengan menjumlahkan nilai error setiap node output Akumulasikan jumlah error
End For If akumulasi jumlah error = minimum error
Hentikan iterasi
End If End For
Simpan bobot akhir
Universitas Sumatera Utara
47
b. Inisialisasi bobot awal dengan nilai antara 0 sampai 1. Inisialisasi bobot koneksi antara setiap neuron lapisan input dan lapisan
tersembunyi V
ji
seperti yang ditunjukkan pada Tabel 3.6.
Tabel 3.6. Bobot Awal V
ji
Bobot Awal V
ji
V
10
bias V
11
V
12
V
13
V
14
V
15
Nilai 0.245
0.153 0.672
0.353 0.791
0.534 Inisialisasi bobot koneksi antara setiap neuron lapisan tersembunyi dan lapisan
output W
kj
seperti yang ditunjukkan pada Tabel 3.7.
Tabel 3.7. Bobot Awal W
kj
Bobot Awal W
kj
W
10
W
11
Nilai 0.362
0.785 c. Tentukan nilai parameter learning rate, maksimum epoch, dan minimum error.
learning rate = 0.5 maksimum epoch= 2
minimum error = 0.01
d. Iterasi dilakukan selama nilai epoch maksimal epoch dan nilai error minimum error.
e. Lakukan langkah – langkah pada fase arah maju forward.
Hitung nilai _� � pada node di lapisan tersembunyi dengan menggunakan persamaan 2.17.
_� � =
= =
10.245 + 0.350.153 + 0.860.672 + 0.420.353 + 0.720.791 + 0.250.534
0.245 + 0.05355 + 0.57792 + 0.14826 + 0.56952 + 0.1335 1.72775
Kemudian hitung nilai keluaran z
j
pada node di lapisan tersembunyi menggunakan persamaan 2.18 menggunakan fungsi aktivasi sigmoid biner.
= _� � =
1 1 +
− .
= 0.84912
Universitas Sumatera Utara
48 Hitung nilai _� � pada node di lapisan output menggunakan persamaan
2.19. _� � =
= =
10.362 + 0.849120.785 0.362 + 0.66656
1.02856 Kemudian hitung nilai keluaran y
k
pada node di lapisan output menggunakan persamaan 2.20 menggunakan fungsi aktivasi sigmoid biner.
= _� � =
1 1 +
− .
= 0.73664
f. Lakukan langkah – langkah pada fase arah mundur backward.
Hitung faktor � di unit keluaran dengan menggunakan persamaan 2.21. � = 1 - 0.73664 0.73664 1 – 0.73664
= 0.26336 0.73664 0.26336 = 0.05109
Hitung suku perubahan bobot dengan menggunakan persamaan 2.22.
Δ = 0.5 0.05109 1 = 0.025545 = 0.02555
Δ = 0.5 0.05109 0.84912 = 0.02169
Hitung penjumlahan �_� �
j
pada unit tersembunyi dengan menggunakan
persamaan 2.23. �_� �
1
= 0.05109 0.785 = 0.04010565 = 0.04011 Hitung faktor � pada unit tersembunyi menggunakan persamaan 2.24.
�
1
= 0.04011 0.84912 1 - 0.84912 = 0.005138702 = 0.00514 Hitung suku perubahan bobot dengan menggunakan persamaan 2.25.
Δ = 0.5 0.00514 1 = 0.00257
Δ = 0.5 0.00514 0.35 = 0.0009
Δ = 0.5 0.00514 0.86 = 0.00221
Universitas Sumatera Utara
49 Δ
= 0.5 0.00514 0.42 = 0.00108 Δ
= 0.5 0.00514 0.72 = 0.00185 Δ
= 0.5 0.00514 0.25 = 0.00064 g. Hitung perubahan bobot jaringan backpropagation.
Hitung bobot baru setiap node lapisan output menggunakan persamaan 2.26. = 0.362 + 0.02555 = 0.38755
= 0.785 + 0.02169 = 0.80669
Hitung bobot baru setiap node lapisan tersembunyi dengan persamaan 2.27. = 0.245 + 0.00257 = 0.24757
= 0.153 + 0.0009 = 0.1539
= 0.672 + 0.00221 = 0.67421 = 0.353 + 0.00108 = 0.35408
= 0.791 + 0.00185 = 0.79285 = 0.534 + 0.00064 = 0.53464
h. Hitung nilai error jaringan dengan menambahkan jumlah nilai error setiap node pada lapisan output. Karena neuron output hanya satu maka,
Error = 0.05109
3.7.3. Tahap pengujian backpropagation
Proses pengujian jaringan backpropagation dilakukan dengan hanya melaksanakan fase arah maju feed forward. Pada tahap ini, data yang akan diuji merupakan data hasil
ekstraksi fitur yang telah dinormalisasi, dimana data tersebut bukan termasuk data pelatihan. Kemudian bobot yang digunakan pada fase feed forward adalah bobot hasil
pelatihan. Lalu dilakukan perhitungan nilai keluaran dari setiap node pada lapisan tersembunyi dan lapisan output.
Kemudian dilakukan pengujian terhadap hasil keluaran setiap node pada lapisan output
. Jika hasil keluaran node lebih besar dari 0,5 maka nilai keluaran pada node
Universitas Sumatera Utara
50
tersebut akan diubah menjadi 1. Sebaliknya nilai keluaran pada node akan diubah menjadi 0 jika nilai keluaran pada node tersebut lebih kecil dari 0,5. Proses pengujian
jaringan backpropagation terhadap hasil identifikasi jenis kayu dapat dilihat pada Gambar 3.16.
Gambar 3.16. Proses pengujian jaringan backpropagation
Proses Pengujian Backpropagation Pada proses pengujian backpropagation, data uji akan menjadi masukkan bagi jaringan
backpropagation dan bobot yang digunakan adalah bobot hasil pelatihan. Contoh
langkah - langkah pengujian backpropagation dengan menggunakan nilai bobot hasil pelatihan adalah sebagai berikut.
Masukkan data uji ke dalam jaringan. Data uji ditunjukkan pada Tabel 3.8.
Tabel 3.8. Data uji Data
X
1
X
2
X
3
X
4
X
5
Gambar2 0.45
0.64 0.38
0.31 0.60
Gunakan bobot hasil pelatihan seperti yang ditunjukkan pada Tabel 3.9 dan Tabel 3.10.
Tabel 3.9. Bobot Vkj baru
Bobot V
10
V
11
V
12
V
13
V
14
V
15
Nilai 0.24757 0.1539
0.67421 0.35408 0.79285 0.53464 Tentukan arsitektur jaringan x input, z hidden, y output
Input data pengujian dan bobot akhir hasil pelatihan Hitung nilai keluaran setiap node pada lapisan tersembunyi
Hitung nilai keluaran setiap node pada lapisan output For i=1 sampai i=y
If nilai keluaran node i pada lapisan output = 0.5
Output = 1
Else
Output = 0
End If End For
Pencocokan nilai output dengan target keluaran Tampilkan hasil pengujian
Universitas Sumatera Utara
51
Tabel 3.10. Bobot Wkj baru
Bobot W
10
W
11
Nilai 0.38755 0.80669
Hitung nilai _� � pada node di lapisan tersembunyi dengan menggunakan persamaan 2.17.
_� � =
=
= 10.24757 + 0.450.1539 + 0.640.67421 + 0.380.35408 +
0.310.79285 + 0.60.53464 0.24757 + 0.069255 + 0.4314944 + 0.1345504 + 0.2457835 +
0.320784 1.4494373 = 1.44944
Kemudian hitung nilai keluaran z
j
pada node di lapisan tersembunyi menggunakan persamaan 2.18 menggunakan fungsi aktivasi sigmoid biner.
= _� � =
1 1 +
− .
= 0.80991
Hitung nilai _� � pada node di lapisan output dengan menggunakan persamaan 2.19.
_� � = =
= 10.3875 + 0.809910.80669
0.3875 + 0.653346298 1.040846298 = 1.04085
Kemudian hitung nilai keluaran y
k
pada node di lapisan output menggunakan persamaan 2.20 menggunakan fungsi sigmoid biner.
= _� � =
1 1 +
− .
= 0.73901
Nilai keluaran adalah 0.73901, dimana 0.73901 0.5. Maka nilai memenuhi
target 1.
Universitas Sumatera Utara
52
3.8. Perancangan Sistem