46
membuat ANN-SOM sangat berguna dalam analisis data dan visual dimana tujuan umumnya adalah mewakili data dari suatu ruang dimensi tinggi dalam
suatu ruang dimensi yang sama lemahnya untuk preservasi struktur internal dari data ruang input.
Berdasarkan analisis kovarian matrik menunjukkan adanya keeratan hubungan antara masing-masing variabel yaitu, Band 1 Red, Band 2 Green
dan Band 3 Blue terhadap ekstraksi objek. Nilai kovarian secara diagonal menunjukkan besar dan arah hubungan linear antara dua peubah Band. Nilai
kovarian klaster A4 secara berurutan menunjukkan nilai makin besar pada Band
1, 3 dan 2 dengan nilai penciri eigen value terbesar yaitu Band 1. Karakteristik vektor eigen vector Band 1 besarannya searah Band 2 dan sebaliknya terhadap
Band 3. Berbeda dengan nilai kovarian klaster A6 secara berurutan menunjukkan nilai makin besar pada Band 1, 2 dan 3 dengan nilai penciri eigen value
terbesar yaitu Band 1. Eigen vector Band 1 besarannya searah terhadap Band 2 dan 3. Karakteristik ini menunjukkan secara jelas bahwa Band 1 optimal dalam
mengekstraksi informasi, terutama kelas pasir. Hal ini diperkuat pula oleh nilai korelasi negatif - Band 1 terhadap Band 3 masih dengan eigen value terendah
dibanding Band yang lain ataupun kombinasi lainnya. Pemetaan hubungan ketetanggaan ANN-SOM memungkinkan untuk
melihat secara jelas output ruang dan struktur tersembunyi dalam data dimensi tinggi, seperti cluster. Sebagaimana ANN-SOM didefinisikan dengan asumsi
bahwa beberapa parameter peta, seperti parameter pembelajaran, topology dan ukuran peta selama fase training. Kenampakan ini mempengaruhi peta akhir,
sehingga sangat penting kehati-hatian untuk memilih parameter-parameter yang menghasilkan peta tepat Uriarte dan Martin 2005. Oleh karena itu,
pengembangan klasifikasi algoritma ANN supervised dapat mengesktrak nilai ROI lebih lanjut pada klaster tersebut, sehingga berguna sebagai target data
pembelajaran. Guna menguji perbedaan pilihan, dapat menggunakan beberapa komputasi tiruan untuk mengevaluasi kualitas peta dan menseleksi satu yang
optimal untuk mewakili data.
4.2.2 Klasifikasi Algoritma ANN Supervised Backpropagation
Skenario utama arsitektur klasifikasi algoritma ANN supervised adalah melanjutkan klasifikasi ANN unsupervised SOM. Penggunaan input citra hasil
transformasi SOM, paradigma pembelajaran jaringan secara supervised baik Backpropagation maupun AdaBoost menggunakan parameter klasifikasi Tabel
47
3-4 dan ukuran training sampel ROI Tabel 3-5 dengan nilai RGB objek ROI terlampir. Kesemua algoritma ANN supervised ini bermaksud meminimalkan
kelipatan error semua pola output jaringan selama pelatihan hingga iterasi henti. Data training dan data pengujian untuk klasifikasi ANN supervised diseleksi
melalui sampel area Gusung Karang Congkak sebanyak 7,737 pixel. Jumlah ROI ini relatif lebih besar dari eksperimen Konishi et.al 2007 bahwa data
training ROI diekstrak dari area 5 x 5 pixel masing-masing 10 titik, yaitu 250 pixel masing-masing kategori untuk peta topografi dan data high resolution
EROS-A1 1.8m. Sedangkan RADARSAT memerlukan banyak sampel dibandingkan dengan SPOT secara empirik, sebab pixel citra SAR berfluktuasi
disebabkan speckle noise. Sehingga ekstraksi ROI dari area padi yang ditanam tersebut ditambahkan 800 pixel. Kondisi ini juga ditemukan terhadap variasi ROI
kategori kelas pasir, karang hidup dan laut. Berbeda halnya dengan Conger et al. 2005 yang menentukan ROI sejumlah 61,323 pixel data Hyperspektral. Oleh
karena analisis klasifikasi citra tersebut hanya untuk memisahkan pasir dan objek lainnya, maka jumlah ROI tersebut berbeda dengan penelitian ini terhadap
beberapa kategori kelas bentik. Besarnya jumlah pixel contoh ROI memungkinkan karena secara visual pemisahan objek hasil klasifikasi
unsupervised SOM dari sumber data citra Quickbird tergolong resolusi spasial yang tinggi, sehingga masih mampu diintrepretasi secara baik.
Tabel 4-1 Perbandingan hasil penelitian beberapa parameter training ANN
supervised
Item parameter Keterangan nilai
I II
III IV
Training momentum 0.9
0.1 dan 1.0 0.19
0.57 Kriteria RMS
0 - 0.1 0.001–0.005
0.01 0.5
Training rate 0.2
0.1 dan 1.0 0.09
0.16 Jumlah Iterasi training
10,000 1,222
10,000 10,000
Jumlah pixel ROI 7,737
61,323 250
30 Sumber: I data primer diolah 2011; II Conger et al. 2005;
III Konishi et al 2007; IV Hu dan Weng 2007 Desain layer ANN-BP dalam berbagai penelitian remote sensing klasifikasi
citra umumnya terdiri dari 3 layer. Selanjutnya item parameter training Tabel 4-1 adalah sama dari berbagai penelitian, kecuali nilainya sebagian berbeda.
Sedangkan terhadap jumlah neuron dari input layer yang sama untuk input layer citra, Konishi et.al 2007 mencontohkan bahwa RADARSAT tiga, ENVISAT
48
enam dan SPOT tiga. Hidden layer dipilih 7 neuron secara empirik. Jumlah neuron output layer sama untuk jumlah kategori 4 neuron. Hu dan Weng 2007
menyatakan bahwa dari formulasi jumlah hidden layer yang menghasilkan jumlah hidden layer node 6, setelah pengujian dilakukan ternyata jumlah hidden layer 4
menunjukkan hasil yang terbaik. Hal ini juga terjadi dalam penelitian ini, dimana jumlah hidden unit hasil formulasi adalah 5, namun performa terbaik secara
empirik diperoleh jumlah hidden unit 4. Selama training dari berbagai input kombinasi dari data pembelajaran learning yang sama menunjukkan performa
training yang berbeda-beda. Nilai cross entropy terendah dinyatakan sebagai pengenalan pola dengan tingkat kesalahan terendah. Performa masing-masing
input dapat disajikan pada Gambar 4-6 berikut:
Gambar 4-6 Performa training ANN-BP masing-masing transformasi SOM 421
SOM 432 SOM 321
SOM 1234
SOM Lyzenga Lyzenga
[Type a quote from the document or the summary of an interesting point.
You can position the text box anywhere in the document. Use the Text Box
Tools tab to change the formatting of the pull quote text box.]
[Type a quote from the document or the summary of an interesting point.
You can position the text box anywhere in the document. Use the Text Box
Tools tab to change the formatting of the pull quote text box.]
[Type a quote from the document or the summary of an interesting point.
You can position the text box anywhere in the document. Use the Text Box
Tools tab to change the formatting of the pull quote text box.]
[Type a quote from the document or the summary of an interesting point.
You can position the text box anywhere in the document. Use the Text Box
Tools tab to change the formatting of the pull quote text box.]
[Type a quote from the document or the summary of an interesting point.
You can position the text box anywhere in the document. Use the Text Box
Tools tab to change the formatting of the pull quote text box.]
[Type a quote from the document or the summary of an interesting point.
You can position the text box anywhere in the document. Use the Text Box
Tools tab to change the formatting of the pull quote text box.]
49
Training melalui prosedur ANN-BP hingga MSE menjadi 0.01 pada 10,000 iterasi dengan masing-masing learning rate dan momentum diset 0.09 dan 0.19
untuk menghitung jumlah pembobotan atau besarnya koreksi. Hal ini sesuai dengan Conger et al. 2005 bahwa perbedaan learning rate dimaksudkan tidak
terlepas sebagai upaya untuk mengontrol seberapa cepat jaringan tetap stabil, sedangkan momentum rate berupaya untuk mengontrol ukuran langkah koreksi
yang mungkin melampaui dan mencegah konvergensi selama pembelajaran.
A = 2 unit hidden layer; B = 4 unit hidden layer;
Gambar 4-7 Lama iterasi pembelajaran algoritma ANN-BP
Penghentian training dari 7,737 set data learning berlangsung beberapa menit mendekati iterasi 5,600 dari iterasi total 10,000 Gambar 4-6. Umpan balik
neuron pada iterasi tersebut dapat mengenali target dengan baik dan berlangsung sama setiap penambahan jumlah hidden unit. Dari semua input
pembelajaran, diketahui bahwa kelas A6 Tabel 4-3 menunjukkan terbaik sesuai dengan ukuran kesalahan berdasarkan log cross entropyCE bernilai 4 =0.60
sejak iterasi dimulai dan bernilai 1.6 =0.20 hingga iterasi henti. Cross-entropy cenderung membiarkan kesalahan untuk mengubah bobot bahkan ketika node
jenuh turunannya mendekati 0. Semakin lebih berguna untuk memecahkan masalah dimana target adalah 0 dan 1 output dapat mengasumsikan nilai-nilai
diantara keduanya. Pengukuran CE sebagai salah satu alternatif untuk ukuran kesalahan
squared error dapat digunakan ketika suatu network output mewakili hipotesis independen misalnya setiap node berdiri untuk suatu konsep yang berbeda dan
aktivasi node mewakili probabilitas keyakinan bahwa setiap hipotesis bisa jadi benar. Vektor output merupakan distribusi probabilitas dan CE menunjukkan
jarak antara distribusi jaringan dan pengetahuan pembelajaran yang harus
A B
[Type a quote from the document or the summary of an interesting point.
You can position the text box anywhere in the document. Use the Text Box
Tools tab to change the formatting of the pull quote text box.]
[Type a quote from the document or the summary of an interesting point.
You can position the text box anywhere in the document. Use the Text Box
Tools tab to change the formatting of the pull quote text box.]
50
percaya. Keseluruhan pengukuran nilai CE dari setiap proses input disajikan pada Tabel 4-2 berikut:
Tabel 4-2 Cross entropy masing-masing input No
Input data training Kode
Cross entropy log
Nilai akhir
1 SOM dengan input semua Band
Band 1, 2, 3 dan 4 A1
3.00 0.48
2 SOM dengan input kombinasi
Band 321 A2
3.10 0.49
3 SOM dengan input kombinasi
Band 421 A3
3.10 0.49
4 SOM dengan input kombinasi
Band 432 A4
2.60 0.41
5 Deep invariant index
Lyzenga A5
1.90 0.28
6 SOM dengan input data
Lyzenga A6
1.60 0.20
Hasil pelatihan jaringan ANN-BP menggunakan input data hasil klasifikasi Lyzenga yang diklaster dengan algoritma ANN-SOM Gambar 4-7 merupakan
performa hasil terbaik dengan cross entropy semakin mendekati nol dari semua input kombinasi, diperoleh kenampakan spasial yang berbeda, dimana target
pasir campur karang tidak dapat dikenali secara baik pada penentuan jumlah hidden unit 2. Setelah hidden unit ditambah 4 hasilnya menjadi siginifikan
menampilkan target yang sebelumnya tidak ada. Penentuan jumlah hidden unit dan input yang tepat sangat berpengaruh terhadap kualitas klasifikasi. Demikian
pula halnya dengan kemampuan sistem melakukan generalisasi pola pembelajaran dari input data pembelajaran learning yang diberikan. Makin baik
pemisahan objek learning berdasarkan degradasi warna berdasarkan kemampuan ekstraksi informasi dari transformasi kombinasi Band citra, maka
kemampuan pengenalan pola tentu akan semakin lebih baik.
51
A = 2 unit hidden layer; B = 4 unit hidden layer;
Gambar 4-8 Kenampakan spasial hasil klasifikasi algoritma ANN-BP
A
B
[Type a quote from the document or the summary of an interesting point. You can position the text box anywhere in the document. Use the Text Box Tools tab to
change the formatting of the pull quote text box.]
[Type a quote from the document or the summary of an interesting point. You can position the text box anywhere in the document. Use the Text Box Tools tab to
change the formatting of the pull quote text box.]
52
Kenampakan spasial diatas, jika dilihat secara statistik berdasarkan histogram Gambar 4-9 memiliki pola kenampakan berbeda dari masing-masing
klasifikasi ANN-BP. Perbedaan tersebut disebabkan oleh jumlah unit hidden layer secara empirik lebih baik pada jumlah unit lebih besar dari 2. Pada penentuan
jumlah hidden layer node 4 menunjukkan klasifikasi terbaik. Hal ini tidak terpaku berdasarkan formula Schowengerdt 1997; 2007 dan postulat Fletcher dan Goss
1993 yang digunakan dalam hasil penelitian klasifikasi citra oleh Hu dan Weng 2007. Selanjutnya menunjukkan secara empirik terdapat perbedaan hasil ketika
dilakukan perubahan jumlah hidden layer dari enam sesuai formula, ketika dilakukan perubahan jumlah menjadi empat ternyata hasil klasifikasi citra lebih
baik.
Gambar 4-9 Histogram klasifikasi algoritma ANN-BP 4.2.3 Algoritma ANN
Supervised Adaptive Boosting
Berdasarkan skema ANN supervised diatas dapat diterangkan bahwa propagasi dari sinyal input melalui jaringan mengalami peningkatan secara
adaptif dari Algoritma Adaptive Boosting ANN-AdaBoost. Dari parameter input dan ROI yang sama digunakan terhadap algoritma ANN-BP, kecuali jumlah
hidden layer algoritma ANN-AdaBoost ditambah menjadi hidden layer 1 dan 2 untuk jumlah hidden node masing-masing 8 serta menggunakan training Kalman
filter TKF untuk memperhalus atau memfilter informasi noise. Hasil analisis kenampakan spasial Gambar 4-10 menunjukkan perbedaan yang signifikan dan
memerlukan relatif sedikit jumlah iterasi 280 iterasi dengan ukuran kesalahan quadratic error 0.24 Gambar 4-12.
2 hidden layer
Lyzenga 4
hidden layer Lyzenga
[Type a quote from the document or the summary of an interesting point.
You can position the text box anywhere in the document. Use the
Text Box Tools tab to change the formatting of the pull quote text
box.] [Type a quote from the document or
the summary of an interesting point. You can position the text box
anywhere in the document. Use the Text Box Tools tab to change the
formatting of the pull quote text box.]
53
Gambar 4-10 Kenampakan spasial klasifikasi algoritma ANN-AdaBoost
Gambar 4-11 Histogram klasifikasi algoritma ANN-AdaBoost
Hasil klasifikasi kenampakan diatas menunjukkan pola dan kenampakan spasial yang relative sama dengan klasifikasi ANN-BP. Perbedaan yang
mencolok terletak pada jumlah iterasi dan waktu yang dibutuhkan hingga iterasi henti. Perolehan hasil eksperimen ini dalam rangka mengatasi kelemahan utama
dari lama waktu pelatihan relevan dengan hasil eksperimen Freund dan Shapire 1996 untuk klasifikasi data satelit multispektral tutupan lahan menggunakan
algoritma ANN-AdaBoost diterapkan pada urutan tiga lapis umpan-maju jaringan [Type a quote from the document or the summary of an interesting point. You can
position the text box anywhere in the document. Use the Text Box Tools tab to change the formatting of the pull quote text box.]
[Type a quote from the document or the summary of an interesting point. You can
position the text box anywhere in the document. Use the Text Box Tools tab to
change the formatting of the pull quote text box.]
54
ANN. Meski terlihat dari histogram Gambar 4-11 menunjukkan pola yang relatif sama dari ekstraksi pixel, namun menurut Shah dan Palmeri 1990 bahwa
algoritma ANN-AdaBoost dengan pelatihan Kalman filter menjadi efisien melatih setiap neuron dalam jaringan lokal, membuat eksplisit penggunaan matriks
kesalahan bobot sinaptik neuron.
Gambar 4-12 Ukuran kesalahan quadratic error selama iterasi
Ini berarti bahwa pelatihan algoritma ANN-AdaBoost tidak memerlukan jumlah iterasi yang besar dibanding algoritma ANN-BP 5,600 iterasi dari total
jumlah 10.000 iterasi yang disiapkan. Meskipun kedua algoritma ANN supervised memiliki presisi yang sangat baik, karena memiliki nilai ukuran kesalahan
mendekati 0. Dari keseluruhan input data training, Input A6 menunjukkan quadratic error dan misclassification rate relatif lebih baik dibanding lainnya. Hal
ini tidak terlepas dari pengaruh integrasi training Kalman Filter KF yang menduga secara iteratif bagian dari suatu sistem pengamatan ANN supervised.
Training Kalman Filter yang dilakukan Spence et al. 2008 dapat memasukkan data dari bermacam-macam pengertian kedalam sistem pendugaan, pengukuran
statistik untuk memperhalus data dan membuang informasi yang bersifat noise. Intrepretasi KF yang juga dilakukan Parker 1994 merupakan suatu sistem linear
yang menyatakan kelipatan rata-rata kesalahan squared error antara output yang diharapkan dan output aktual dengan meminimalkan input acak saat
digeneralisasi secara acak noise dari iterasi konstan per unit kanal pada tiap frekuensi dari nilai pixel yang diinginkan.
[Type a quote from the document or the summary of an interesting point. You can position the text box anywhere in the document. Use
the Text Box Tools tab to change the formatting of the pull quote text box.]
55
Tabel 4-3 Quadratic error dan misclassification rate masing-masing input No
Input Data Training Kode
Quadratic error
Misclassification rate Training
validasi
1 SOM dengan input semua
Band Band 1, 2, 3 dan 4 A1
0.25 0.034
0.040 2
SOM dengan input kombinasi Band 321
A2 0.25
0.025 0.023
3 SOM dengan input
kombinasi Band 421 A3
0.24 0.245
0.225 4
SOM dengan input kombinasi Band 432
A4 0.25
0.011 0.015
5 Deep invariant index
Lyzenga A5
0.25 0.0018
0.000 6
SOM dengan input data Lyzenga
A6 0.24
0.000 0.000
Pengenalan pola masing-masing input pembelajaran learning dari input kombinasi menunjukkan performa yang berbeda-beda. Hal ini dapat ditunjukkan
pada Gambar 4-13 berikut:
Gambar 4-13 Performa pembelajaran Algoritma ANN-AdaBoost berbagai input
Garis putus-putus untuk validasi data pelatihan dan data pengujian titik-titik
[Type a quote from the document or the summary of
an interesting point. You can position the text box
anywhere in the document. Use the Text Box Tools tab to
[Type a quote from the document or the summary of
an interesting point. You can position the text box
anywhere in the document. Use the Text Box Tools tab to
[Type a quote from the document or the summary of
an interesting point. You can position the text box
anywhere in the document. Use the Text Box Tools tab to
[Type a quote from the document or the summary of
an interesting point. You can position the text box
anywhere in the document. Use the Text Box Tools tab to
[Type a quote from the document or the summary of
an interesting point. You can position the text box
anywhere in the document. Use the Text Box Tools tab to
[Type a quote from the document or the summary of
an interesting point. You can position the text box
anywhere in the document. Use the Text Box Tools tab to
56
Pengenalan pola masing-masing pembelajaran terhadap data input dan output target dimulai pada network ke 2. Pengenalan semakin lebih baik pada
network ke 3 hingga 74. Validasi data selama pelatihan menunjukkan misclassification rate 0,0080 untuk set data pelatihan garis putus-putus dan
0.0064 untuk set data pengujian garis titik-titik dimulai pada network ke 2. Pada network ke 3 dan seterusnya hingga iterasi henti menunjukkan misclassification
rate 0 Gambar 4-11.
Gambar 4-14 Validasi data pelatihan putus-putus dan data pengujian titik-titik
Bobot-bobot neuron network klasifikasi ANN supervised AdaBoost dari hasil kalkulasi input dan output target mencapai konvergensi hingga network 74
Gambar 4-12. Bobot-bobot tersebut Lampiran 4 dihitung mulai 0 hingga 5 kali percobaan trial dari jumlah hidden neuron 1 dan hidden neuron 2 masing-
masing adalah 8. Penentuan jumlah hidden neuron ini secara empirik disesuaikan dengan jumlah target output yang diharapkan.
Gambar 4-15 Bobot weight neuron selama kalkulasi jaringan network
[Type a quote from the document or the summary of an interesting point. You can
position the text box anywhere in the document. Use the Text Box Tools tab to
change the formatting of the pull quote text box.]
[Type a quote from the document or the summary of an interesting point.
You can position the text box anywhere in the document. Use the
Text Box Tools tab to change the formatting of the pull quote text box.]
57
4.3 Penilaian Akurasi Data 4.3.1 Koreksi Posisi