Klasifikasi Algoritma ANN Supervised

46 membuat ANN-SOM sangat berguna dalam analisis data dan visual dimana tujuan umumnya adalah mewakili data dari suatu ruang dimensi tinggi dalam suatu ruang dimensi yang sama lemahnya untuk preservasi struktur internal dari data ruang input. Berdasarkan analisis kovarian matrik menunjukkan adanya keeratan hubungan antara masing-masing variabel yaitu, Band 1 Red, Band 2 Green dan Band 3 Blue terhadap ekstraksi objek. Nilai kovarian secara diagonal menunjukkan besar dan arah hubungan linear antara dua peubah Band. Nilai kovarian klaster A4 secara berurutan menunjukkan nilai makin besar pada Band 1, 3 dan 2 dengan nilai penciri eigen value terbesar yaitu Band 1. Karakteristik vektor eigen vector Band 1 besarannya searah Band 2 dan sebaliknya terhadap Band 3. Berbeda dengan nilai kovarian klaster A6 secara berurutan menunjukkan nilai makin besar pada Band 1, 2 dan 3 dengan nilai penciri eigen value terbesar yaitu Band 1. Eigen vector Band 1 besarannya searah terhadap Band 2 dan 3. Karakteristik ini menunjukkan secara jelas bahwa Band 1 optimal dalam mengekstraksi informasi, terutama kelas pasir. Hal ini diperkuat pula oleh nilai korelasi negatif - Band 1 terhadap Band 3 masih dengan eigen value terendah dibanding Band yang lain ataupun kombinasi lainnya. Pemetaan hubungan ketetanggaan ANN-SOM memungkinkan untuk melihat secara jelas output ruang dan struktur tersembunyi dalam data dimensi tinggi, seperti cluster . Sebagaimana ANN-SOM didefinisikan dengan asumsi bahwa beberapa parameter peta, seperti parameter pembelajaran, topology dan ukuran peta selama fase training. Kenampakan ini mempengaruhi peta akhir, sehingga sangat penting kehati-hatian untuk memilih parameter-parameter yang menghasilkan peta tepat Uriarte dan Martin 2005. Oleh karena itu, pengembangan klasifikasi algoritma ANN supervised dapat mengesktrak nilai ROI lebih lanjut pada klaster tersebut, sehingga berguna sebagai target data pembelajaran. Guna menguji perbedaan pilihan, dapat menggunakan beberapa komputasi tiruan untuk mengevaluasi kualitas peta dan menseleksi satu yang optimal untuk mewakili data.

4.2.2 Klasifikasi Algoritma ANN Supervised

Backpropagation Skenario utama arsitektur klasifikasi algoritma ANN supervised adalah melanjutkan klasifikasi ANN unsupervised SOM. Penggunaan input citra hasil transformasi SOM, paradigma pembelajaran jaringan secara supervised baik Backpropagation maupun AdaBoost menggunakan parameter klasifikasi Tabel 47 3-4 dan ukuran training sampel ROI Tabel 3-5 dengan nilai RGB objek ROI terlampir. Kesemua algoritma ANN supervised ini bermaksud meminimalkan kelipatan error semua pola output jaringan selama pelatihan hingga iterasi henti. Data training dan data pengujian untuk klasifikasi ANN supervised diseleksi melalui sampel area Gusung Karang Congkak sebanyak 7,737 pixel. Jumlah ROI ini relatif lebih besar dari eksperimen Konishi et.al 2007 bahwa data training ROI diekstrak dari area 5 x 5 pixel masing-masing 10 titik, yaitu 250 pixel masing-masing kategori untuk peta topografi dan data high resolution EROS-A1 1.8m. Sedangkan RADARSAT memerlukan banyak sampel dibandingkan dengan SPOT secara empirik, sebab pixel citra SAR berfluktuasi disebabkan speckle noise . Sehingga ekstraksi ROI dari area padi yang ditanam tersebut ditambahkan 800 pixel . Kondisi ini juga ditemukan terhadap variasi ROI kategori kelas pasir, karang hidup dan laut. Berbeda halnya dengan Conger et al. 2005 yang menentukan ROI sejumlah 61,323 pixel data Hyperspektral. Oleh karena analisis klasifikasi citra tersebut hanya untuk memisahkan pasir dan objek lainnya, maka jumlah ROI tersebut berbeda dengan penelitian ini terhadap beberapa kategori kelas bentik. Besarnya jumlah pixel contoh ROI memungkinkan karena secara visual pemisahan objek hasil klasifikasi unsupervised SOM dari sumber data citra Quickbird tergolong resolusi spasial yang tinggi, sehingga masih mampu diintrepretasi secara baik. Tabel 4-1 Perbandingan hasil penelitian beberapa parameter training ANN supervised Item parameter Keterangan nilai I II III IV Training momentum 0.9 0.1 dan 1.0 0.19 0.57 Kriteria RMS 0 - 0.1 0.001–0.005 0.01 0.5 Training rate 0.2 0.1 dan 1.0 0.09 0.16 Jumlah Iterasi training 10,000 1,222 10,000 10,000 Jumlah pixel ROI 7,737 61,323 250 30 Sumber: I data primer diolah 2011; II Conger et al. 2005; III Konishi et al 2007; IV Hu dan Weng 2007 Desain layer ANN-BP dalam berbagai penelitian remote sensing klasifikasi citra umumnya terdiri dari 3 layer. Selanjutnya item parameter training Tabel 4-1 adalah sama dari berbagai penelitian, kecuali nilainya sebagian berbeda. Sedangkan terhadap jumlah neuron dari input layer yang sama untuk input layer citra, Konishi et.al 2007 mencontohkan bahwa RADARSAT tiga, ENVISAT 48 enam dan SPOT tiga. Hidden layer dipilih 7 neuron secara empirik. Jumlah neuron output layer sama untuk jumlah kategori 4 neuron . Hu dan Weng 2007 menyatakan bahwa dari formulasi jumlah hidden layer yang menghasilkan jumlah hidden layer node 6, setelah pengujian dilakukan ternyata jumlah hidden layer 4 menunjukkan hasil yang terbaik. Hal ini juga terjadi dalam penelitian ini, dimana jumlah hidden unit hasil formulasi adalah 5, namun performa terbaik secara empirik diperoleh jumlah hidden unit 4. Selama training dari berbagai input kombinasi dari data pembelajaran learning yang sama menunjukkan performa training yang berbeda-beda. Nilai cross entropy terendah dinyatakan sebagai pengenalan pola dengan tingkat kesalahan terendah. Performa masing-masing input dapat disajikan pada Gambar 4-6 berikut: Gambar 4-6 Performa training ANN-BP masing-masing transformasi SOM 421 SOM 432 SOM 321 SOM 1234 SOM Lyzenga Lyzenga [Type a quote from the document or the summary of an interesting point. You can position the text box anywhere in the document. Use the Text Box Tools tab to change the formatting of the pull quote text box.] [Type a quote from the document or the summary of an interesting point. You can position the text box anywhere in the document. Use the Text Box Tools tab to change the formatting of the pull quote text box.] [Type a quote from the document or the summary of an interesting point. You can position the text box anywhere in the document. Use the Text Box Tools tab to change the formatting of the pull quote text box.] [Type a quote from the document or the summary of an interesting point. You can position the text box anywhere in the document. Use the Text Box Tools tab to change the formatting of the pull quote text box.] [Type a quote from the document or the summary of an interesting point. You can position the text box anywhere in the document. Use the Text Box Tools tab to change the formatting of the pull quote text box.] [Type a quote from the document or the summary of an interesting point. You can position the text box anywhere in the document. Use the Text Box Tools tab to change the formatting of the pull quote text box.] 49 Training melalui prosedur ANN-BP hingga MSE menjadi 0.01 pada 10,000 iterasi dengan masing-masing learning rate dan momentum diset 0.09 dan 0.19 untuk menghitung jumlah pembobotan atau besarnya koreksi. Hal ini sesuai dengan Conger et al. 2005 bahwa perbedaan learning rate dimaksudkan tidak terlepas sebagai upaya untuk mengontrol seberapa cepat jaringan tetap stabil, sedangkan momentum rate berupaya untuk mengontrol ukuran langkah koreksi yang mungkin melampaui dan mencegah konvergensi selama pembelajaran. A = 2 unit hidden layer; B = 4 unit hidden layer; Gambar 4-7 Lama iterasi pembelajaran algoritma ANN-BP Penghentian training dari 7,737 set data learning berlangsung beberapa menit mendekati iterasi 5,600 dari iterasi total 10,000 Gambar 4-6. Umpan balik neuron pada iterasi tersebut dapat mengenali target dengan baik dan berlangsung sama setiap penambahan jumlah hidden unit . Dari semua input pembelajaran, diketahui bahwa kelas A6 Tabel 4-3 menunjukkan terbaik sesuai dengan ukuran kesalahan berdasarkan log cross entropyCE bernilai 4 =0.60 sejak iterasi dimulai dan bernilai 1.6 =0.20 hingga iterasi henti. Cross-entropy cenderung membiarkan kesalahan untuk mengubah bobot bahkan ketika node jenuh turunannya mendekati 0. Semakin lebih berguna untuk memecahkan masalah dimana target adalah 0 dan 1 output dapat mengasumsikan nilai-nilai diantara keduanya. Pengukuran CE sebagai salah satu alternatif untuk ukuran kesalahan squared error dapat digunakan ketika suatu network output mewakili hipotesis independen misalnya setiap node berdiri untuk suatu konsep yang berbeda dan aktivasi node mewakili probabilitas keyakinan bahwa setiap hipotesis bisa jadi benar. Vektor output merupakan distribusi probabilitas dan CE menunjukkan jarak antara distribusi jaringan dan pengetahuan pembelajaran yang harus A B [Type a quote from the document or the summary of an interesting point. You can position the text box anywhere in the document. Use the Text Box Tools tab to change the formatting of the pull quote text box.] [Type a quote from the document or the summary of an interesting point. You can position the text box anywhere in the document. Use the Text Box Tools tab to change the formatting of the pull quote text box.] 50 percaya. Keseluruhan pengukuran nilai CE dari setiap proses input disajikan pada Tabel 4-2 berikut: Tabel 4-2 Cross entropy masing-masing input No Input data training Kode Cross entropy log Nilai akhir 1 SOM dengan input semua Band Band 1, 2, 3 dan 4 A1 3.00 0.48 2 SOM dengan input kombinasi Band 321 A2 3.10 0.49 3 SOM dengan input kombinasi Band 421 A3 3.10 0.49 4 SOM dengan input kombinasi Band 432 A4 2.60 0.41 5 Deep invariant index Lyzenga A5 1.90 0.28 6 SOM dengan input data Lyzenga A6 1.60 0.20 Hasil pelatihan jaringan ANN-BP menggunakan input data hasil klasifikasi Lyzenga yang diklaster dengan algoritma ANN-SOM Gambar 4-7 merupakan performa hasil terbaik dengan cross entropy semakin mendekati nol dari semua input kombinasi, diperoleh kenampakan spasial yang berbeda, dimana target pasir campur karang tidak dapat dikenali secara baik pada penentuan jumlah hidden unit 2. Setelah hidden unit ditambah 4 hasilnya menjadi siginifikan menampilkan target yang sebelumnya tidak ada. Penentuan jumlah hidden unit dan input yang tepat sangat berpengaruh terhadap kualitas klasifikasi. Demikian pula halnya dengan kemampuan sistem melakukan generalisasi pola pembelajaran dari input data pembelajaran learning yang diberikan. Makin baik pemisahan objek learning berdasarkan degradasi warna berdasarkan kemampuan ekstraksi informasi dari transformasi kombinasi Band citra, maka kemampuan pengenalan pola tentu akan semakin lebih baik. 51 A = 2 unit hidden layer; B = 4 unit hidden layer; Gambar 4-8 Kenampakan spasial hasil klasifikasi algoritma ANN-BP A B [Type a quote from the document or the summary of an interesting point. You can position the text box anywhere in the document. Use the Text Box Tools tab to change the formatting of the pull quote text box.] [Type a quote from the document or the summary of an interesting point. You can position the text box anywhere in the document. Use the Text Box Tools tab to change the formatting of the pull quote text box.] 52 Kenampakan spasial diatas, jika dilihat secara statistik berdasarkan histogram Gambar 4-9 memiliki pola kenampakan berbeda dari masing-masing klasifikasi ANN-BP. Perbedaan tersebut disebabkan oleh jumlah unit hidden layer secara empirik lebih baik pada jumlah unit lebih besar dari 2. Pada penentuan jumlah hidden layer node 4 menunjukkan klasifikasi terbaik. Hal ini tidak terpaku berdasarkan formula Schowengerdt 1997; 2007 dan postulat Fletcher dan Goss 1993 yang digunakan dalam hasil penelitian klasifikasi citra oleh Hu dan Weng 2007. Selanjutnya menunjukkan secara empirik terdapat perbedaan hasil ketika dilakukan perubahan jumlah hidden layer dari enam sesuai formula, ketika dilakukan perubahan jumlah menjadi empat ternyata hasil klasifikasi citra lebih baik. Gambar 4-9 Histogram klasifikasi algoritma ANN-BP 4.2.3 Algoritma ANN Supervised Adaptive Boosting Berdasarkan skema ANN supervised diatas dapat diterangkan bahwa propagasi dari sinyal input melalui jaringan mengalami peningkatan secara adaptif dari Algoritma Adaptive Boosting ANN- AdaBoost . Dari parameter input dan ROI yang sama digunakan terhadap algoritma ANN-BP, kecuali jumlah hidden layer algoritma ANN- AdaBoost ditambah menjadi hidden layer 1 dan 2 untuk jumlah hidden node masing-masing 8 serta menggunakan training Kalman filter TKF untuk memperhalus atau memfilter informasi noise . Hasil analisis kenampakan spasial Gambar 4-10 menunjukkan perbedaan yang signifikan dan memerlukan relatif sedikit jumlah iterasi 280 iterasi dengan ukuran kesalahan quadratic error 0.24 Gambar 4-12. 2 hidden layer Lyzenga 4 hidden layer Lyzenga [Type a quote from the document or the summary of an interesting point. You can position the text box anywhere in the document. Use the Text Box Tools tab to change the formatting of the pull quote text box.] [Type a quote from the document or the summary of an interesting point. You can position the text box anywhere in the document. Use the Text Box Tools tab to change the formatting of the pull quote text box.] 53 Gambar 4-10 Kenampakan spasial klasifikasi algoritma ANN-AdaBoost Gambar 4-11 Histogram klasifikasi algoritma ANN-AdaBoost Hasil klasifikasi kenampakan diatas menunjukkan pola dan kenampakan spasial yang relative sama dengan klasifikasi ANN-BP. Perbedaan yang mencolok terletak pada jumlah iterasi dan waktu yang dibutuhkan hingga iterasi henti. Perolehan hasil eksperimen ini dalam rangka mengatasi kelemahan utama dari lama waktu pelatihan relevan dengan hasil eksperimen Freund dan Shapire 1996 untuk klasifikasi data satelit multispektral tutupan lahan menggunakan algoritma ANN-AdaBoost diterapkan pada urutan tiga lapis umpan-maju jaringan [Type a quote from the document or the summary of an interesting point. You can position the text box anywhere in the document. Use the Text Box Tools tab to change the formatting of the pull quote text box.] [Type a quote from the document or the summary of an interesting point. You can position the text box anywhere in the document. Use the Text Box Tools tab to change the formatting of the pull quote text box.] 54 ANN. Meski terlihat dari histogram Gambar 4-11 menunjukkan pola yang relatif sama dari ekstraksi pixel , namun menurut Shah dan Palmeri 1990 bahwa algoritma ANN-AdaBoost dengan pelatihan Kalman filter menjadi efisien melatih setiap neuron dalam jaringan lokal, membuat eksplisit penggunaan matriks kesalahan bobot sinaptik neuron. Gambar 4-12 Ukuran kesalahan quadratic error selama iterasi Ini berarti bahwa pelatihan algoritma ANN-AdaBoost tidak memerlukan jumlah iterasi yang besar dibanding algoritma ANN-BP 5,600 iterasi dari total jumlah 10.000 iterasi yang disiapkan. Meskipun kedua algoritma ANN supervised memiliki presisi yang sangat baik, karena memiliki nilai ukuran kesalahan mendekati 0. Dari keseluruhan input data training, Input A6 menunjukkan quadratic error dan misclassification rate relatif lebih baik dibanding lainnya. Hal ini tidak terlepas dari pengaruh integrasi training Kalman Filter KF yang menduga secara iteratif bagian dari suatu sistem pengamatan ANN supervised . Training Kalman Filter yang dilakukan Spence et al. 2008 dapat memasukkan data dari bermacam-macam pengertian kedalam sistem pendugaan, pengukuran statistik untuk memperhalus data dan membuang informasi yang bersifat noise . Intrepretasi KF yang juga dilakukan Parker 1994 merupakan suatu sistem linear yang menyatakan kelipatan rata-rata kesalahan squared error antara output yang diharapkan dan output aktual dengan meminimalkan input acak saat digeneralisasi secara acak noise dari iterasi konstan per unit kanal pada tiap frekuensi dari nilai pixel yang diinginkan. [Type a quote from the document or the summary of an interesting point. You can position the text box anywhere in the document. Use the Text Box Tools tab to change the formatting of the pull quote text box.] 55 Tabel 4-3 Quadratic error dan misclassification rate masing-masing input No Input Data Training Kode Quadratic error Misclassification rat e Training validasi 1 SOM dengan input semua Band Band 1, 2, 3 dan 4 A1 0.25 0.034 0.040 2 SOM dengan input kombinasi Band 321 A2 0.25 0.025 0.023 3 SOM dengan input kombinasi Band 421 A3 0.24 0.245 0.225 4 SOM dengan input kombinasi Band 432 A4 0.25 0.011 0.015 5 Deep invariant index Lyzenga A5 0.25 0.0018 0.000 6 SOM dengan input data Lyzenga A6 0.24 0.000 0.000 Pengenalan pola masing-masing input pembelajaran learning dari input kombinasi menunjukkan performa yang berbeda-beda. Hal ini dapat ditunjukkan pada Gambar 4-13 berikut: Gambar 4-13 Performa pembelajaran Algoritma ANN-AdaBoost berbagai input Garis putus-putus untuk validasi data pelatihan dan data pengujian titik-titik [Type a quote from the document or the summary of an interesting point. You can position the text box anywhere in the document. Use the Text Box Tools tab to [Type a quote from the document or the summary of an interesting point. You can position the text box anywhere in the document. Use the Text Box Tools tab to [Type a quote from the document or the summary of an interesting point. You can position the text box anywhere in the document. Use the Text Box Tools tab to [Type a quote from the document or the summary of an interesting point. You can position the text box anywhere in the document. Use the Text Box Tools tab to [Type a quote from the document or the summary of an interesting point. You can position the text box anywhere in the document. Use the Text Box Tools tab to [Type a quote from the document or the summary of an interesting point. You can position the text box anywhere in the document. Use the Text Box Tools tab to 56 Pengenalan pola masing-masing pembelajaran terhadap data input dan output target dimulai pada network ke 2. Pengenalan semakin lebih baik pada network ke 3 hingga 74. Validasi data selama pelatihan menunjukkan misclassification rate 0,0080 untuk set data pelatihan garis putus-putus dan 0.0064 untuk set data pengujian garis titik-titik dimulai pada network ke 2. Pada network ke 3 dan seterusnya hingga iterasi henti menunjukkan misclassification rate 0 Gambar 4-11. Gambar 4-14 Validasi data pelatihan putus-putus dan data pengujian titik-titik Bobot-bobot neuron network klasifikasi ANN supervised AdaBoost dari hasil kalkulasi input dan output target mencapai konvergensi hingga network 74 Gambar 4-12. Bobot-bobot tersebut Lampiran 4 dihitung mulai 0 hingga 5 kali percobaan trial dari jumlah hidden neuron 1 dan hidden neuron 2 masing- masing adalah 8. Penentuan jumlah hidden neuron ini secara empirik disesuaikan dengan jumlah target output yang diharapkan. Gambar 4-15 Bobot weight neuron selama kalkulasi jaringan network [Type a quote from the document or the summary of an interesting point. You can position the text box anywhere in the document. Use the Text Box Tools tab to change the formatting of the pull quote text box.] [Type a quote from the document or the summary of an interesting point. You can position the text box anywhere in the document. Use the Text Box Tools tab to change the formatting of the pull quote text box.] 57 4.3 Penilaian Akurasi Data 4.3.1 Koreksi Posisi