Ekstraksi Fitur Identifikasi Tulisan Mandarin pada Citra Biji Catur Gajah Cina Berdasarkan Pola Menggunakan Direction Feature Extraction dan Backpropagation

2.3. Ekstraksi Fitur

Ekstraksi fitur merupakan nilai fitur yang terkandung di dalam sebuah citra yang mewakili ciri khusus dari sebuah citra. Nilai yang didapatkan dari hasil pengekstraksian fitur dari sebuah citra kemudian akan di proses untuk diklasifikasi. Ekstaksi Fitur yang digunakan di dalam penelitian ini adalah Direction Feature Extraction . 2.3.1. Direction Feature Direction Feature adalah pencarian nilai-nilai fitur berdasarkan label arah pada setiap pixel . Pada metode Direction Feature , setiap pixel foreground pada gambar memiliki arah tersendiri dimana arah yang digunakan memiliki empat arah dan masing-masing arah diberikan label nilai tersendiri Liu Blumenstein, 2008. Arah yang digunakan dapat dilihat pada tabel 2.1 dibawah ini Agung et al, 2009. Tabel 2.1 Nilai Label dan Arah pada Direction Feature Arah Nilai Bentuk Vertikal 2 | Diagonal Kanan 3 Horizontal 4 _ Diagonal Kiri 5 \ Nilai arah pada setiap pixel dapat diperoleh melalui proses pengecekan secara raster dari arah kiri ke kanan. Pengecekan secara raster bertujuan untuk mencari pixel yang memiliki nilai 1 atau pixel yang berasal dari foreground . Selama pengecekan raster berlangsung, pixel yang memilii nilai1 atau berasal dari pixel foreground akan mengecek nilai neighbour dari pixel tersebut. Apabila P adalah pixel foreground yang tercek, pixel neighbour akan dicek adalah P1atau P5 terdapat pixel foreground maka diberikan label nilai 2, P2 atau P6 terdapat pixel foreground maka diberikan label nilai 3, P3 atau P7 terdapat pixel foreground maka diberikan label nilai 4, P4 atau P8 terdapat pixel foreground maka diberikan label nilai 5. Tabel 2.2 menunjukkan matriks neighbour pixel P dalam pelabelan nilai arah. Universitas Sumatera Utara Tabel 2.2 Matriks neighbour pixel P dalam pelabelan nilai arah P1 P2 P3 P8 P P4 P7 P6 P5 Selanjutnya, nilai-nilai fitur yang berdimensi sesuai dengan citra biner yang diubah akan mengalami proses transisi. Proses transisi melakukan pengecekan secara raster dari empat arah kiri ke kanan, kanan ke kiri, atas ke bawah, bawah ke atas. Sebelum melakukan transisi, nilai transisi maksimum didefinisikan terlebih dahulu. Apabila nilai T adalah nilai transisi maksimum yang didefinisikan, nilai W dan H adalah nilai lebar dan tinggi dari citra yang diproses. Persamaan 2.6 ukuran dari Direction Feature dari kiri menuju kanan di bawah ini. LR = T . H 2.6 Persamaan 2.7 ukuran dari transisi pada Direction Feature dari kanan menuju kanan dibawah ini. RL = T . H 2.7 Persamaan 2.8 ukuran dari transisi pada Direction Feature dari atas menuju bawah dibawah ini. UD = T . W 2.8 Persamaan 2.9 ukuran dari transisi pada Direction Feature dari bawah menuju atas dibawah ini. DU = T . W 2.9 Dimana : LR = ukuran transisi kiri ke kanan RL = ukuran transisi kanan ke kiri UD = ukuran transisi atas ke bawah DU = ukuran transisi bawah ke atas T = nilai transisi W = lebar dari citra asli H = tinggi dari citra asli Universitas Sumatera Utara Proses berikutnya adalah menormalkan ukuran fitur dari transisi fitur pertama sekali pada Direction Feature . Proses menormalkan ukuran matriks transisi bertujuan untuk mengecilkan data input fitur supaya proses pengklasifikasian menghasilkan hasil yang lebih akurat dan proses yang tidak memakan waktu terlalu banyak. Ukuran penormalan citra dilakukan secara berurutan dengan menjumlahkan baris pertama sampai dengan baris yang berindeks jumlah transisi setiap arah. Persamaan 2.10 menunjukkan ukuran normalisasi dari nilai transisi direction feature . 2.10 Dimana : NS = ukuran fitur normalisasi setiap arah DT =ukuran transisi pada direction feature pada setiap arah kiri ke kanan, kanan ke kiri, atas ke bawah, bawah ke atas T = nilai transisi Hasil akhir yang dihasilkan oleh fitur ekstraksi Direction Feature adalah nilai normalisasi dari keempat arah yang digabungkan. Nilai fitur akhir dari Direction Feature memiliki ukuran yang berukuran dengan jumlah dari normalisasi keempat arah. Persamaan 2.11 menunjukkan ukuran akhir dari nilai fitur yang dihasilkan. 2.11 Dimana : DF = ukuran dari hasil akhir Direction Feature NS = ukuran fitur normalisasi setiap arahkiri ke kanan, kanan ke kiri, atas ke bawah, bawah ke atas T = nilai transisi 2.4. Backpropagation Jaringan feed-forward dapat digunakan untuk bermacam masalah klasifikasi dan pengenalan. Di dalam algoritma Backpropagation , tidak penting untuk mengetahui model matematika dari permasalahan pengenalan dan klasifikasi untuk melatih dan kemudian memanggil informasi yang berasal dari jaringan Khusbu Mehta, 2013. Universitas Sumatera Utara Di dalam algoritma ini, apabila arsitektur dari jaringan yang dipilih tepat dan sekumpulan data training yang memadai disertakan, jaringan Backpropagation akan memberikan solusi yang tepat Khusbu Mehta, 2013. Langkah-langkah yang dilakukan oleh algoritma Backpropagation adalah sebagai berikut Khusbu Mehta, 2013: 1. Data input disertakan di dalam elemen yang memproses lapisan pertama dari jaringan Backpropagation dan diperbanyak sepanjang jalur penghubung menuju lapisan pertama. 2. Setiap elemen pemrosesan, h di dalam hidden layer menghitung jumlah dari bobot input dari setiap input , i , dari lapisan sebelumnya. Persamaan 2.12 menunjukkan jumlah bobot yang terdapat pada setiap elemen di lapisan input yang menuju lapisan hidden. 2.12 Dimana : Weighted sum h = jumlah bobot pada elemen dari lapisan input ke hiddden weight h = bobot pada elemen dari lapisan input ke hidden input h = nilai input yang berada pada lapisan hidden . 3. Keluaran dari pemrosesan pada lapisan hidden ¸ h , kemudian dikalkulasikan dengan fungsi aktivasi, f, dan kemudian diperbanyak ke lapisan selanjutnya. Fungsi aktivasi sigmoidal biasanya adalah fx = 1 1+ex. Persamaan 2.13 menunjukkan perhitungan fungsi aktivasi sigmoid keluaran elemen h dari lapisan hidden . 2.13 Dimana : Hidden output h = nilai dari fungsi aktivasi sigmoidal elemen h dari lapisan hidden weighted sum h = jumlah bobot di elemen h bias h = nilai bias pada elemen h 4. Langkah pada nomor 2 dan nomor 3 mengalami perulangan pada lapisan hidden sampai lapisan output dijangkau. Universitas Sumatera Utara 5. Setiap elemen pemrosesan o, di dalam lapisan output mengkalkulasikan jumlah dari bobot i nput yang berada pada setiap elemen h , dari lapisan sebelumnya. Persamaan 2.14 menunjukkan jumlah bobot yang berasal dari lapisan hidden menuju lapisan output . , untuk semua elemen h 2.14 Dimana : Weighted sum o = jumlah bobot dari lapisan hidden menuju output weight oh = jumlah bobot pada elemen h pada hidden ke output layer input oh = nilai input yang berada pada lapisan output 6. Nilai keluaran dari elemen pemrosessan lapisan output o, kemudian dikalkulasikan dengan fungsi aktivasi, f. Persamaan 2.15 menunjukkan perhitungan fungsi aktivasi elemen o di lapisan output . 2.15 Dimana : Output o = nilai dari fungsi aktivasi elemen o di lapisan output weighted sum o = jumlah bobot di elemen o bias o = nilai bias di elemen o 7. Nilai output yang telah dihitung dibandingkan dengan output tujuan untuk menghitung nilai error untuk setiap elemen pemrosesan lapisan output . Turunan dari fungsi aktivasi f digunakan untuk mencari nilai rata-rata perubahan. Untuk contoh ini f’x = fx 1-fx. Persamaan 2.16 menunjukkan perhitungan kesalahan yang terjadi di lapisan output. Perulangan dan jaringan mempelajari ketika melakukan perulangan sampai menemukan nilai error yang paling kecil. 2.16 Dimana : Error o = nilai error yang terdapat pada setap elemen o target o = nilai elemen pada node target elemen o output o = nilai output pada elemen o weightedsumo = jumlah beban pada elemen o biaso = nilai bias pada elemen o 8. Error pada lapisan-lapisan hidden di dalam elemen pemrosesan dihitung dengan melajukan error kembali melalui jaringan. Sangat penting bahwa weighted h adalah bobot dari output unit,o yang berhubungan dengan unit hidden , h. Persamaan 2.17 menunjukkan 2.17 Dimana : Error h = nilai error yang terdapat pada setiap elemen h Universitas Sumatera Utara weightedsumh = jumlah bobot yang berada pada elemen h biash = nilai bias yang terdapat pada elemen h erroro = nilai error yang terdapat pada elemen o weightoh = nilai bobot yang berada pada elemen o 9. Bobot-bobot di dalam lapisan output telah terupdate, β = learning rate diantara 1 dan 0, α = konstanta momentum. Penggunaan βerroro mewakili peran dari delta . Input o adalah nilai input bergerak di jalur-jalur yang berasal dari lapisan hidden menuju lapisan output . Persamaan 2.18 menunjukkan proses update bobot yang dilakukan oleh Backpropagation pada lapisan output . 2.18 Dimana : Weighto = bobot pada elemen o t = indeks elemen pada bobot α = konstanta momentum β = learning rate antara 1 dan 0 erroro = nilai error pada elemen o input = nilai input dari lapisan hidden menuju output. input2 = nilai input dari lapisan hidden menuju output selanjutnya. 10. Bobot-bobot pada setiap lapisan hidden telah terupdate. β = konstanta learning rate antara 1 dan 0, α = konstanta momentum. Persamaan 2.19 menunjukkan proses update bobot yang dilakukan oleh Backpropagation pada lapisan hidden . 2.19 Dimana : Weighth = bobot pada elemen o t = indeks elemen pada bobot α = konstanta momentum Universitas Sumatera Utara β = konstanta learning rate errorh = nilai error pada elemen h input = nilai input dari lapisan hidden menuju output. input2 = nilai input dari lapisan hidden menuju output selanjutnya. Dalam menjalankan algoritma Backpropagation , proses feedforward menjalankan langkah 1 sampai 6 dan proses backpropagation terjadi selama langkah 7 sampai 10 untuk mengecek error yang dihasilkan Khusbu Mehta, 2013.

2.5. Penelitian Terdahulu