46
membuat ANN-SOM sangat berguna dalam analisis data dan visual dimana tujuan umumnya adalah mewakili data dari suatu ruang dimensi tinggi dalam
suatu ruang dimensi yang sama lemahnya untuk preservasi struktur internal dari data ruang input.
Berdasarkan analisis kovarian matrik menunjukkan adanya keeratan hubungan antara masing-masing variabel yaitu, Band 1 Red, Band 2 Green
dan Band 3 Blue terhadap ekstraksi objek. Nilai kovarian secara diagonal menunjukkan besar dan arah hubungan linear antara dua peubah Band. Nilai
kovarian klaster A4 secara berurutan menunjukkan nilai makin besar pada Band
1, 3 dan 2 dengan nilai penciri eigen value
terbesar yaitu Band 1. Karakteristik vektor
eigen vector Band 1 besarannya searah Band 2 dan sebaliknya terhadap
Band 3. Berbeda dengan nilai kovarian klaster A6 secara berurutan menunjukkan nilai makin besar pada Band 1, 2 dan 3 dengan nilai penciri
eigen value terbesar yaitu Band 1.
Eigen vector Band 1 besarannya searah terhadap Band 2
dan 3. Karakteristik ini menunjukkan secara jelas bahwa Band 1 optimal dalam mengekstraksi informasi, terutama kelas pasir. Hal ini diperkuat pula oleh nilai
korelasi negatif - Band 1 terhadap Band 3 masih dengan eigen value
terendah dibanding Band yang lain ataupun kombinasi lainnya.
Pemetaan hubungan ketetanggaan ANN-SOM memungkinkan untuk melihat secara jelas output ruang dan struktur tersembunyi dalam data dimensi
tinggi, seperti cluster
. Sebagaimana ANN-SOM didefinisikan dengan asumsi bahwa beberapa parameter peta, seperti parameter pembelajaran, topology dan
ukuran peta selama fase training. Kenampakan ini mempengaruhi peta akhir, sehingga sangat penting kehati-hatian untuk memilih parameter-parameter yang
menghasilkan peta tepat Uriarte dan Martin 2005. Oleh karena itu, pengembangan klasifikasi algoritma ANN
supervised dapat mengesktrak nilai
ROI lebih lanjut pada klaster tersebut, sehingga berguna sebagai target data pembelajaran. Guna menguji perbedaan pilihan, dapat menggunakan beberapa
komputasi tiruan untuk mengevaluasi kualitas peta dan menseleksi satu yang optimal untuk mewakili data.
4.2.2 Klasifikasi Algoritma ANN Supervised
Backpropagation
Skenario utama arsitektur klasifikasi algoritma ANN supervised
adalah melanjutkan klasifikasi ANN
unsupervised SOM. Penggunaan input citra hasil
transformasi SOM, paradigma pembelajaran jaringan secara supervised
baik Backpropagation
maupun AdaBoost menggunakan parameter klasifikasi Tabel
47
3-4 dan ukuran training sampel ROI Tabel 3-5 dengan nilai RGB objek ROI terlampir. Kesemua algoritma ANN
supervised ini bermaksud meminimalkan
kelipatan error
semua pola output jaringan selama pelatihan hingga iterasi henti. Data training dan data pengujian untuk klasifikasi ANN
supervised diseleksi
melalui sampel area Gusung Karang Congkak sebanyak 7,737 pixel. Jumlah ROI ini relatif lebih besar dari eksperimen Konishi
et.al 2007 bahwa data
training ROI diekstrak dari area 5 x 5 pixel masing-masing 10 titik, yaitu 250 pixel masing-masing kategori untuk peta topografi dan data
high resolution EROS-A1 1.8m. Sedangkan RADARSAT memerlukan banyak sampel
dibandingkan dengan SPOT secara empirik, sebab pixel citra SAR berfluktuasi disebabkan
speckle noise . Sehingga ekstraksi ROI dari area padi yang ditanam
tersebut ditambahkan 800 pixel
. Kondisi ini juga ditemukan terhadap variasi ROI kategori kelas pasir, karang hidup dan laut. Berbeda halnya dengan Conger
et al. 2005 yang menentukan ROI sejumlah 61,323 pixel data Hyperspektral. Oleh
karena analisis klasifikasi citra tersebut hanya untuk memisahkan pasir dan objek lainnya, maka jumlah ROI tersebut berbeda dengan penelitian ini terhadap
beberapa kategori kelas bentik. Besarnya jumlah pixel contoh ROI memungkinkan karena secara visual pemisahan objek hasil klasifikasi
unsupervised SOM dari sumber data citra Quickbird tergolong resolusi spasial
yang tinggi, sehingga masih mampu diintrepretasi secara baik.
Tabel 4-1 Perbandingan hasil penelitian beberapa parameter training ANN
supervised
Item parameter Keterangan nilai
I II
III IV
Training momentum 0.9
0.1 dan 1.0 0.19
0.57 Kriteria RMS
0 - 0.1 0.001–0.005
0.01 0.5
Training rate 0.2
0.1 dan 1.0 0.09
0.16 Jumlah Iterasi training
10,000 1,222
10,000 10,000
Jumlah pixel ROI 7,737
61,323 250
30 Sumber: I data primer diolah 2011; II Conger
et al. 2005;
III Konishi et al
2007; IV Hu dan Weng 2007 Desain layer ANN-BP dalam berbagai penelitian remote sensing klasifikasi
citra umumnya terdiri dari 3 layer. Selanjutnya item parameter training Tabel 4-1 adalah sama dari berbagai penelitian, kecuali nilainya sebagian berbeda.
Sedangkan terhadap jumlah neuron dari input layer yang sama untuk input layer citra, Konishi
et.al 2007 mencontohkan bahwa RADARSAT tiga, ENVISAT
48
enam dan SPOT tiga. Hidden layer
dipilih 7 neuron
secara empirik. Jumlah neuron
output layer sama untuk jumlah kategori 4 neuron
. Hu dan Weng 2007 menyatakan bahwa dari formulasi jumlah hidden layer yang menghasilkan jumlah
hidden layer node 6, setelah pengujian dilakukan ternyata jumlah hidden layer
4 menunjukkan hasil yang terbaik. Hal ini juga terjadi dalam penelitian ini, dimana
jumlah hidden unit hasil formulasi adalah 5, namun performa terbaik secara empirik diperoleh jumlah hidden unit 4. Selama training dari berbagai input
kombinasi dari data pembelajaran learning
yang sama menunjukkan performa training yang berbeda-beda. Nilai cross entropy terendah dinyatakan sebagai
pengenalan pola dengan tingkat kesalahan terendah. Performa masing-masing input dapat disajikan pada Gambar 4-6 berikut:
Gambar 4-6 Performa training ANN-BP masing-masing transformasi SOM 421
SOM 432 SOM 321
SOM 1234
SOM Lyzenga Lyzenga
[Type a quote from the document or the summary of an interesting point.
You can position the text box anywhere in the document. Use the Text Box
Tools tab to change the formatting of the pull quote text box.]
[Type a quote from the document or the summary of an interesting point.
You can position the text box anywhere in the document. Use the Text Box
Tools tab to change the formatting of the pull quote text box.]
[Type a quote from the document or the summary of an interesting point.
You can position the text box anywhere in the document. Use the Text Box
Tools tab to change the formatting of the pull quote text box.]
[Type a quote from the document or the summary of an interesting point.
You can position the text box anywhere in the document. Use the Text Box
Tools tab to change the formatting of the pull quote text box.]
[Type a quote from the document or the summary of an interesting point.
You can position the text box anywhere in the document. Use the Text Box
Tools tab to change the formatting of the pull quote text box.]
[Type a quote from the document or the summary of an interesting point.
You can position the text box anywhere in the document. Use the Text Box
Tools tab to change the formatting of the pull quote text box.]
49
Training melalui prosedur ANN-BP hingga MSE
menjadi 0.01 pada 10,000 iterasi dengan masing-masing learning rate dan momentum diset 0.09 dan 0.19
untuk menghitung jumlah pembobotan atau besarnya koreksi. Hal ini sesuai dengan Conger
et al. 2005 bahwa perbedaan
learning rate dimaksudkan tidak
terlepas sebagai upaya untuk mengontrol seberapa cepat jaringan tetap stabil, sedangkan
momentum rate berupaya untuk mengontrol ukuran langkah koreksi
yang mungkin melampaui dan mencegah konvergensi selama pembelajaran.
A = 2 unit hidden layer; B = 4 unit hidden layer;
Gambar 4-7 Lama iterasi pembelajaran algoritma ANN-BP
Penghentian training dari 7,737 set data learning berlangsung beberapa menit mendekati iterasi 5,600 dari iterasi total 10,000 Gambar 4-6. Umpan balik
neuron pada iterasi tersebut dapat mengenali target dengan baik dan
berlangsung sama setiap penambahan jumlah hidden unit
. Dari semua input pembelajaran, diketahui bahwa kelas A6 Tabel 4-3 menunjukkan terbaik sesuai
dengan ukuran kesalahan berdasarkan log cross entropyCE
bernilai 4 =0.60 sejak iterasi dimulai dan bernilai 1.6 =0.20 hingga iterasi henti.
Cross-entropy cenderung membiarkan kesalahan untuk mengubah bobot bahkan ketika node
jenuh turunannya mendekati 0. Semakin lebih berguna untuk memecahkan masalah dimana target adalah 0 dan 1 output dapat mengasumsikan nilai-nilai
diantara keduanya. Pengukuran CE sebagai salah satu alternatif untuk ukuran kesalahan
squared error dapat digunakan ketika suatu
network output mewakili hipotesis
independen misalnya setiap node berdiri untuk suatu konsep yang berbeda dan aktivasi node mewakili probabilitas keyakinan bahwa setiap hipotesis bisa jadi
benar. Vektor output merupakan distribusi probabilitas dan CE menunjukkan jarak antara distribusi jaringan dan pengetahuan pembelajaran yang harus
A B
[Type a quote from the document or the summary of an interesting point.
You can position the text box anywhere in the document. Use the Text Box
Tools tab to change the formatting of the pull quote text box.]
[Type a quote from the document or the summary of an interesting point.
You can position the text box anywhere in the document. Use the Text Box
Tools tab to change the formatting of the pull quote text box.]
50
percaya. Keseluruhan pengukuran nilai CE dari setiap proses input disajikan pada Tabel 4-2 berikut:
Tabel 4-2 Cross entropy
masing-masing input No
Input data training Kode
Cross entropy log
Nilai akhir
1 SOM dengan input semua Band
Band 1, 2, 3 dan 4 A1
3.00 0.48
2 SOM dengan input kombinasi
Band 321 A2
3.10 0.49
3 SOM dengan input kombinasi
Band 421 A3
3.10 0.49
4 SOM dengan input kombinasi
Band 432 A4
2.60 0.41
5 Deep invariant index
Lyzenga A5
1.90 0.28
6 SOM dengan input data
Lyzenga A6
1.60 0.20
Hasil pelatihan jaringan ANN-BP menggunakan input data hasil klasifikasi
Lyzenga yang diklaster dengan algoritma ANN-SOM Gambar 4-7 merupakan performa hasil terbaik dengan
cross entropy semakin mendekati nol dari semua
input kombinasi, diperoleh kenampakan spasial yang berbeda, dimana target pasir campur karang tidak dapat dikenali secara baik pada penentuan jumlah
hidden unit 2. Setelah hidden unit ditambah 4 hasilnya menjadi siginifikan menampilkan target yang sebelumnya tidak ada. Penentuan jumlah hidden unit
dan input yang tepat sangat berpengaruh terhadap kualitas klasifikasi. Demikian pula halnya dengan kemampuan sistem melakukan generalisasi pola
pembelajaran dari input data pembelajaran learning
yang diberikan. Makin baik pemisahan objek learning berdasarkan degradasi warna berdasarkan
kemampuan ekstraksi informasi dari transformasi kombinasi Band citra, maka kemampuan pengenalan pola tentu akan semakin lebih baik.
51
A = 2 unit hidden layer; B = 4 unit hidden layer;
Gambar 4-8 Kenampakan spasial hasil klasifikasi algoritma ANN-BP
A
B
[Type a quote from the document or the summary of an interesting point. You can position the text box anywhere in the document. Use the Text Box Tools tab to
change the formatting of the pull quote text box.]
[Type a quote from the document or the summary of an interesting point. You can position the text box anywhere in the document. Use the Text Box Tools tab to
change the formatting of the pull quote text box.]
52
Kenampakan spasial diatas, jika dilihat secara statistik berdasarkan histogram Gambar 4-9 memiliki pola kenampakan berbeda dari masing-masing
klasifikasi ANN-BP. Perbedaan tersebut disebabkan oleh jumlah unit hidden layer secara empirik lebih baik pada jumlah unit lebih besar dari 2. Pada penentuan
jumlah hidden layer node 4 menunjukkan klasifikasi terbaik. Hal ini tidak terpaku berdasarkan formula Schowengerdt 1997; 2007 dan postulat Fletcher dan Goss
1993 yang digunakan dalam hasil penelitian klasifikasi citra oleh Hu dan Weng 2007. Selanjutnya menunjukkan secara empirik terdapat perbedaan hasil ketika
dilakukan perubahan jumlah hidden layer
dari enam sesuai formula, ketika dilakukan perubahan jumlah menjadi empat ternyata hasil klasifikasi citra lebih
baik.
Gambar 4-9 Histogram klasifikasi algoritma ANN-BP 4.2.3 Algoritma ANN
Supervised Adaptive Boosting
Berdasarkan skema ANN supervised
diatas dapat diterangkan bahwa propagasi dari sinyal input melalui jaringan mengalami peningkatan secara
adaptif dari Algoritma Adaptive Boosting
ANN- AdaBoost
. Dari parameter input dan ROI yang sama digunakan terhadap algoritma ANN-BP, kecuali jumlah
hidden layer algoritma ANN-
AdaBoost ditambah menjadi
hidden layer 1 dan 2
untuk jumlah hidden node
masing-masing 8 serta menggunakan training
Kalman filter TKF untuk memperhalus atau memfilter informasi
noise . Hasil analisis
kenampakan spasial Gambar 4-10 menunjukkan perbedaan yang signifikan dan memerlukan relatif sedikit jumlah iterasi 280 iterasi dengan ukuran kesalahan
quadratic error 0.24 Gambar 4-12.
2 hidden layer
Lyzenga 4
hidden layer Lyzenga
[Type a quote from the document or the summary of an interesting point.
You can position the text box anywhere in the document. Use the
Text Box Tools tab to change the formatting of the pull quote text
box.] [Type a quote from the document or
the summary of an interesting point. You can position the text box
anywhere in the document. Use the Text Box Tools tab to change the
formatting of the pull quote text box.]
53
Gambar 4-10 Kenampakan spasial klasifikasi algoritma ANN-AdaBoost
Gambar 4-11 Histogram klasifikasi algoritma ANN-AdaBoost
Hasil klasifikasi kenampakan diatas menunjukkan pola dan kenampakan spasial yang relative sama dengan klasifikasi ANN-BP. Perbedaan yang
mencolok terletak pada jumlah iterasi dan waktu yang dibutuhkan hingga iterasi henti. Perolehan hasil eksperimen ini dalam rangka mengatasi kelemahan utama
dari lama waktu pelatihan relevan dengan hasil eksperimen Freund dan Shapire 1996 untuk klasifikasi data satelit multispektral tutupan lahan menggunakan
algoritma ANN-AdaBoost diterapkan pada urutan tiga lapis umpan-maju jaringan [Type a quote from the document or the summary of an interesting point. You can
position the text box anywhere in the document. Use the Text Box Tools tab to change the formatting of the pull quote text box.]
[Type a quote from the document or the summary of an interesting point. You can
position the text box anywhere in the document. Use the Text Box Tools tab to
change the formatting of the pull quote text box.]
54
ANN. Meski terlihat dari histogram Gambar 4-11 menunjukkan pola yang relatif sama dari ekstraksi
pixel , namun menurut Shah dan Palmeri 1990 bahwa
algoritma ANN-AdaBoost dengan pelatihan Kalman filter menjadi efisien melatih setiap neuron dalam jaringan lokal, membuat eksplisit penggunaan matriks
kesalahan bobot sinaptik neuron.
Gambar 4-12 Ukuran kesalahan quadratic error
selama iterasi Ini berarti bahwa pelatihan algoritma ANN-AdaBoost tidak memerlukan
jumlah iterasi yang besar dibanding algoritma ANN-BP 5,600 iterasi dari total jumlah 10.000 iterasi yang disiapkan. Meskipun kedua algoritma ANN
supervised memiliki presisi yang sangat baik, karena memiliki nilai ukuran kesalahan
mendekati 0. Dari keseluruhan input data training, Input A6 menunjukkan quadratic error
dan misclassification rate
relatif lebih baik dibanding lainnya. Hal ini tidak terlepas dari pengaruh integrasi training Kalman Filter KF yang
menduga secara iteratif bagian dari suatu sistem pengamatan ANN supervised
. Training Kalman Filter yang dilakukan Spence
et al. 2008 dapat memasukkan
data dari bermacam-macam pengertian kedalam sistem pendugaan, pengukuran statistik untuk memperhalus data dan membuang informasi yang bersifat
noise .
Intrepretasi KF yang juga dilakukan Parker 1994 merupakan suatu sistem linear yang menyatakan kelipatan rata-rata kesalahan
squared error antara
output yang diharapkan dan
output aktual dengan meminimalkan input acak saat
digeneralisasi secara acak noise
dari iterasi konstan per unit kanal pada tiap frekuensi dari nilai
pixel yang diinginkan.
[Type a quote from the document or the summary of an interesting point. You can position the text box anywhere in the document. Use
the Text Box Tools tab to change the formatting of the pull quote text box.]
55
Tabel 4-3 Quadratic error
dan misclassification rate
masing-masing input No
Input Data Training Kode
Quadratic error
Misclassification rat e
Training validasi
1 SOM dengan input semua
Band Band 1, 2, 3 dan 4 A1
0.25 0.034
0.040 2
SOM dengan input kombinasi Band 321
A2 0.25
0.025 0.023
3 SOM dengan input
kombinasi Band 421 A3
0.24 0.245
0.225 4
SOM dengan input kombinasi Band 432
A4 0.25
0.011 0.015
5 Deep invariant index
Lyzenga A5
0.25 0.0018
0.000 6
SOM dengan input data Lyzenga
A6 0.24
0.000 0.000
Pengenalan pola masing-masing input pembelajaran learning dari input kombinasi menunjukkan performa yang berbeda-beda. Hal ini dapat ditunjukkan
pada Gambar 4-13 berikut:
Gambar 4-13 Performa pembelajaran Algoritma ANN-AdaBoost berbagai input
Garis putus-putus untuk validasi data pelatihan dan data pengujian titik-titik
[Type a quote from the document or the summary of
an interesting point. You can position the text box
anywhere in the document. Use the Text Box Tools tab to
[Type a quote from the document or the summary of
an interesting point. You can position the text box
anywhere in the document. Use the Text Box Tools tab to
[Type a quote from the document or the summary of
an interesting point. You can position the text box
anywhere in the document. Use the Text Box Tools tab to
[Type a quote from the document or the summary of
an interesting point. You can position the text box
anywhere in the document. Use the Text Box Tools tab to
[Type a quote from the document or the summary of
an interesting point. You can position the text box
anywhere in the document. Use the Text Box Tools tab to
[Type a quote from the document or the summary of
an interesting point. You can position the text box
anywhere in the document. Use the Text Box Tools tab to
56
Pengenalan pola masing-masing pembelajaran terhadap data input dan output target dimulai pada
network ke 2. Pengenalan semakin lebih baik pada
network ke 3 hingga 74. Validasi data selama pelatihan menunjukkan
misclassification rate 0,0080 untuk set data pelatihan garis putus-putus dan
0.0064 untuk set data pengujian garis titik-titik dimulai pada network ke 2. Pada network
ke 3 dan seterusnya hingga iterasi henti menunjukkan misclassification
rate 0 Gambar 4-11.
Gambar 4-14 Validasi data pelatihan putus-putus dan data pengujian titik-titik
Bobot-bobot neuron network klasifikasi ANN supervised
AdaBoost dari hasil kalkulasi
input dan
output target mencapai konvergensi hingga
network 74
Gambar 4-12. Bobot-bobot tersebut Lampiran 4 dihitung mulai 0 hingga 5 kali percobaan
trial dari jumlah hidden neuron 1 dan hidden neuron 2 masing-
masing adalah 8. Penentuan jumlah hidden neuron ini secara empirik disesuaikan dengan jumlah target output yang diharapkan.
Gambar 4-15 Bobot weight
neuron selama kalkulasi jaringan network
[Type a quote from the document or the summary of an interesting point. You can
position the text box anywhere in the document. Use the Text Box Tools tab to
change the formatting of the pull quote text box.]
[Type a quote from the document or the summary of an interesting point.
You can position the text box anywhere in the document. Use the
Text Box Tools tab to change the formatting of the pull quote text box.]
57
4.3 Penilaian Akurasi Data 4.3.1 Koreksi Posisi