Analisis Perbandingan Backpropagation Dengan Learning Vector Quantization (LVQ) Untuk Memprediksi Curah Hujan Di Kota Medan

(1)

ANALISIS PERBANDINGAN

BACKPROPAGATION

DENGAN

LEARNING VECTOR QUANTIZATION

(LVQ) UNTUK

MEMPREDIKSI CURAH HUJAN DI KOTA MEDAN

TESIS

TENGKU MAHRINA

117038078

PROGRAM STUDI (S2) TEKNIK INFORMATIKA

FAKULTAS ILMU KOMPUTER DAN TEKNOLOGI INFORMASI

UNIVERSITAS SUMATERA UTARA

MEDAN

2014


(2)

ANALISIS PERBANDINGAN

BACKPROPAGATION

DENGAN

LEARNING VECTOR QUANTIZATION

(LVQ) UNTUK

MEMPREDIKSI CURAH HUJAN DI KOTA MEDAN

TESIS

Diajukan untuk melengkapi tugas dan memenuhi syarat memperoleh ijazah Magister Teknik Informatika

TENGKU MAHRINA 117038078

PROGRAM STUDI (S2) TEKNIK INFORMATIKA

FAKULTAS ILMU KOMPUTER DAN TEKNOLOGI INFORMASI

UNIVERSITAS SUMATERA UTARA

MEDAN

2014


(3)

PERSETUJUAN

Judul : ANALISIS PERBANDINGAN BACKPROPAGATION

DENGAN LEARNING VECTOR QUANTIZATION

(LVQ) UNTUK MEMPREDIKSI CURAH HUJAN DI KOTA MEDAN

Nama : TENGKU MAHRINA

Nomor Induk Mahasiswa : 117038080

Program Studi : MAGISTER TEKNIK INFORMATIKA

Fakultas : ILMU KOMPUTER DAN TEKNOLOGI INFORMASI

UNIVERSITAS SUMATERA UTARA Komisi Pembimbing :

Diketahui/disetujui oleh

Program StudiMagister (S2) Teknik Informatika Ketua,

Prof. Dr. H. Muhammad Zarlis NIP : 19507011 1986011 003

Pembimbing 2 , Pembimbing 1,

Dr. Marwan Ramli, M.Si NIP : 19711125 199303 1 002

Prof. Dr. Tulus


(4)

PERNYATAAN

ANALISIS PERBANDINGAN BACKPROPAGATION DENGAN LEARNING VECTOR QUANTIZATION (LVQ) UNTUK MEMPREDIKSI

CURAH HUJAN DI KOTA MEDAN

TESIS

Saya mengakui bahwa tesis ini adalah hasil karya saya sendiri, kecuali beberapa kutipan dan ringkasan yang masing-masing telah disebutkan sumbernya.

Medan,23Januari 2014

Tengku Mahrina 117038078


(5)

PERNYATAAN PERSETUJUAN PUBLIKASI KARYA ILMIAH UNTUK KEPENTINGAN

AKADEMIS

Sebagai sivitas akademika Universitas Sumatera Utara, saya yang bertanda tangan dibawah ini:

Nama : Tengku Mahrina

NIM : 117038078

Program Studi : Teknik Informatika

Demi pengembangan ilmu pengetahuan, menyetujui untuk memberikan kepada Universitas Sumatera Utara Hak Bebas Royalti Non-Eksklusif (Non-Exclusive Royalty Free Right) atas tesis saya yang berjudul:

ANALISIS PERBANDINGAN BACKPROPAGATION DENGAN LEARNING VECTOR QUANTIZATION (LVQ) UNTUK MEMPREDIKSI

CURAH HUJAN DI KOTA MEDAN

Beserta perangkat yang ada (jika diperlukan). Dengan Hak Bebas Royalti Non-Eksklusif ini, Universitas Sumatera Utara berhak menyimpan, mengalih media, memformat, mengelola dalam bentuk database, merawat dan mempublikasikan tesis saya tanpa meminta izin dari saya selama tetap mencantumkan nama saya sebagai penulis dan sebagai pemegang dan/ atau sebagai pemilik hak cipta.

Demikian pernyataan ini dibuat dengan sebenarnya.

Medan,23Januari 2014

Tengku Mahrina 117038078


(6)

Telah diuji pada

Tanggal: 23 Januari 2013

PANITIA PENGUJI TESIS Ketua : Prof. Dr. Tulus

Anggota : 1. Dr. Marwan Ramli, M.Si 2. Prof. Dr. Herman Mawengkang 3. Prof. Dr. Muhammad Zarlis 4. Prof. Dr. Drs. Iryanto, M.Si


(7)

RIWAYAT HIDUP

DATA PRIBADI

Nama Lengkap : Tengku Mahrina

Tempat dan Tanggal Lahir : Medan, 18 Nopember 1980

Alamat Rumah : Jl. Karya Kasih Gg. Kasih 5 No. 22/v Telepon/ Faks/ HP : -/ -/ 081375365666

E-mail

Instansi Tempat Bekerja : Stasiun Meteorologi Maritim Belawan Alamat Kantor : Jl. Raya Pelabuhan III Gabion Belawan

DATA PENDIDIKAN

SD : SDN 060812 TAMAT: 1993

SMP : SMP Negeri 2 Medan TAMAT: 1996

SMA : SMU Negeri 2 Medan TAMAT: 1999

D3 : Akademi Meteorologi dan Geofisika Jakarta TAMAT: 2002

S1 : STT Harapan Medan TAMAT: 2007


(8)

KATA PENGANTAR

Puji dan syukur penulis panjatkan kehadirat Allah SWT Tuhan Yang Maha Esa atas berkah, rahmat dan karuniaNya kepada Penulis sehingga dapat menyelesaikan tesis dengan judul ANALISIS PERBANDINGAN BACKPROPAGATION

DENGAN LEARNING VECTOR QUANTIZATION (LVQ) UNTUK

MEMPREDIKSI CURAH HUJAN DI KOTA MEDAN”.

Dalam penyusunan untuk menyelesaikan tesis ini, Penulis banyak mendapati pelajaran yang besar, baik berupa saran maupun nasehat dari berbagai pihak terutama dari Dosen Pembimbing serta Dosen Pembanding, sehingga pengerjaan tesis ini dapat diselesaikan dengan baik. Tidak lepas dari dukungan dan bantuan banyak pihak sehingga penulis dapat sampai pada tahap penyelesaian TESIS ini. Untuk itu penulis ingin menyampaikan ucapan terimakasih yang sebesar– besarnya kepada :

1. Tengku Izmin Helda (Ayah), Rahmah Asmuni (Ibu), Aja Syahnan, (Suami), atas dukungan, kesabaran dan kasih sayang yang besar, sehingga penulis dapat menyelesaikan pendidikan ini.

2. Bapak Prof. Dr. Tulus, selaku Pembimbing I, yang telah bersedia memberikan bimbingan serta pengarahan hingga terselesaikannya penulisan tesis ini

3. Bapak Dr.Marwan Ramli, M.Si selaku Dosen Pembimbing II, yang telah bersedia memberikan bimbingan serta pengarahan hingga selesainya penulisan tesis ini.

4. Bapak Prof. Dr. Muhammad Zarlis, selaku Ketua Program Studi Pascasarjana Teknik Informatika Fakultas Ilmu Komputer dan Teknologi Informasi Sumatera Utara Medan yang telah bersedia memberikan motivasi serta pengarahan hingga selesainya penulisan tesis ini.

5. Bapak Prof.Dr. Herman Mawengkang, yang telah bersedia memberikan saran dan pengarahan hingga terselesaikannya penulisan tesis ini.


(9)

6. Bapak Prof. Dr.Iryanto, M.Si, yang telah bersedia memberikan saran dan pengarahan hingga terselesaikannya penulisan tesis ini.

7. Segenap sivitas akademika Program Studi Pascasarjana Teknik Informatika Sumatera Utara.

8. Aja Naila Syarin dan Aja Marissa Syuri (Anak), Tengku Ikhwan Helda, Tengku Emri Fauzan, Luthfiani.

9. Keluarga besar Magister Teknik Informatika Angkatan 2011 Kom-C. 10. Sahabat dan Teman di Stasiun Meteorologi Maritim Belawan, Stasiun

Klimatologi Sampali, Stasiun Meteorologi Polonia (Kuala Namu) dan Balai Besar Meteorologi, Klimatologi dan Geofisika Wilayah I

Penulis menyadari bahwa masih ada kekurangan dalam penulisan tesis ini, untuk itu, penulis mengharapkan kritik dan saran dari pembaca demi kesempurnaan penelitian selanjutnya.

Akhir kata penulis berharap semoga karya ilmiah ini dapat bermanfaat bagi semua pihak, khususnya dalam bidang pendidikan.

Medan,23 januari 2014 Penulis

Tengku Mahrina 117038078


(10)

ABSTRAK

Curah hujan merupakan faktor yang sangat penting dalam bidang pertanian dan perencanaan pembangunan. Penelitian ini bertujuan untuk memprediksi curah hujan dan sifat hujan di Medan menggunakan neural network dengan algoritma

Backpropagation dan Learning Vector Quantization (LVQ). Data curah hujan yang digunakan untuk training adalah data curah hujan selama 30 tahun terakhir. Parameter yang digunakan dalam penelitian ini terdiri dari dua input yakni bulan dan volume curah hujan. Proses training menghasilkan arsitektur terbaik dengan tiga layer untuk Backpropagation dan dua layer untuk Learning Vector Quantization dengan learning rate 0,5. Dari hasil prediksi diperoleh Algoritma

Backpropagation lebih dekat dalam melakukan prediksi data curah hujan 30 tahun terakhir dibandingkan dengan LVQ. Algoritma Backpropagation dan LVQ memiliki tingkat persentase keakuratan 75 – 99 % untuk algoritma

Backpropagation dan 60 – 82 % untuk algoritma LVQ. Hasil pengujian kedua algoritma diatas, pengaruh fenomena El-Nino dan La-Nina tidak begitu signifikan .

Kata Kunci : Neural network, Backpropagation, Learning Vector Quantization,


(11)

COMPARATIVE ANALYSIS OF BACKPROPAGATION AND LEARNING VECTOR QUANTIZATION (LVQ) TO PREDICT

RAINFALL IN MEDAN

ABSTRACT

Precipitation is a very important factor in agriculture and development planning. This study aims to predict precipitation and characteristic of rainfall in Medan using neural network with Backpropagation algorithm and Learning Vector Quantization ( LVQ ). Data of precipitation which used for training is the rainfall data for the last 30 years. The parameters used in this study consists of two inputs , the month and the volume of rainfall (precipitation) . The process of training produces the best architecture with 3 layers for backpropagation and two layers for Learning Vector Quantization with a learning rate 0.5 . From the predicted results obtained Backpropagation algorithm to predict more closely the 30 years data compared to LVQ . Backpropagation and LVQ algorithm has the highest percentage accuracy of 75-99 % for the backpropagation algorithm and 60-82 % for LVQ algorithms . The test results of the two algorithms above, the influence of the El-Nino and La-Nina is not so significant.

Keywords : Neural network , Backpropagation , Learning Vector Quantization,, precipitation .


(12)

DAFTAR ISI

Halaman

HALAMAN JUDUL ii

PERSETUJUAN iii

PERNYATAAN ORIGINALITAS iv

PERSETUJUAN PUBLIKASI v

PANITIA PENGUJI vi

RIWAYAT HIDUP vii

KATA PENGANTAR viii

ABSTRAK x

ABSTRACT xi

DAFTAR ISI xii

DAFTAR GAMBAR xv

DAFTAR TABEL xvii

BAB 1PENDAHULUAN ERROR! BOOKMARK NOT DEFINED.

1.1 Latar Belakang Error! Bookmark not defined.

1.2 Rumusan Masalah Error! Bookmark not defined.

1.3 Tujuan Penelitian Error! Bookmark not defined.

1.4 Batasan Masalah / Ruang Lingkup KajianError! Bookmark not defined.

BAB 2LANDASAN TEORI ERROR! BOOKMARK NOT DEFINED.

2.1 Definisi Model Error! Bookmark not defined.

2.1.1Model iconik (skala) Error! Bookmark not defined. 2.1.2Model analog Error! Bookmark not defined. 2.1.3Model matematik (quantitatif) Error! Bookmark not defined.

2.2 Konsep pengukuran kinerja Error! Bookmark not defined.

2.3 SistemPendukung Keputusan Error! Bookmark not defined. 2.3.1Tujuan sistem pendukung keputusan Error! Bookmark not defined.


(13)

2.3.2Karakteristik dan kemampuan sistem pendukung keputusan Error! Bookmark not defined.

2.4 Pemodelan Sistem Pendukung Keputusan Error! Bookmark not defined.

2.5 Multi Criteria Decision Making (MCDM) Error! Bookmark not defined.

2.6 Pengertian AHP ( Analitycal Hierarchy Process ) Error! Bookmark not defined.

2.6.1Prinsip-Prinsip AHP Error! Bookmark not defined. 2.6.2Kelebihan dan Kelemahan AHP Error! Bookmark not defined. 2.6.3Langkah – langkah Metode AHP Error! Bookmark not defined. 2.6.4Struktur Hirarki Error! Bookmark not defined. 2.6.5Analisis Bobot Metode AHP Error! Bookmark not defined.

2.7 Fuzzy Analytical Hierarcy Process (FAHP) Error! Bookmark not defined.

2.8 Triangular Fuzzy Number (TFN) Error! Bookmark not defined.

BAB 3METODOLOGI PENELITIAN ERROR! BOOKMARK NOT DEFINED.

3.1 Rancangan Penelitian Error! Bookmark not defined. 3.1.2Pengajuan Posisi Jabatan Error! Bookmark not defined. 3.1.3Struktur Hirarki Error! Bookmark not defined. 3.1.4Responden Error! Bookmark not defined. 3.1.5Jenis – jenis kriteria berdasarkan tingkat kepentingan Error! Bookmark not defined.

3.1.6Derajat keanggotaan dan fuzzy segitiga Error! Bookmark not defined.

3.1.7Fuzzy Sintesis Error! Bookmark not defined. 3.1.8Penentuan Nilai Bobot Vektor (V) Error! Bookmark not defined. 3.1.9Menghitung Bobot Kriteria Error! Bookmark not defined. 3.1.10Menghitung bobot kriteria alternatif Error! Bookmark not defined.

3.1.11Perangkingan Error! Bookmark not defined.

BAB 4HASIL DAN PEMBAHASAN ERROR! BOOKMARK NOT DEFINED.

BAB 5KESIMPULAN DAN SARAN ERROR! BOOKMARK NOT DEFINED.


(14)

5.2 Saran Error! Bookmark not defined.


(15)

DAFTAR GAMBAR

Gambar 2. 1 Struktur hirarki model ahp ERROR! BOOKMARK NOT DEFINED.

Gambar 2. 2 Persamaan matriks ERROR! BOOKMARK NOT DEFINED.

Gambar 3. 1 Langkah-langkah penelitian ERROR! BOOKMARK NOT DEFINED.

Gambar 3. 2 Hirarki kelayakan pengajuan posisi jabatan ERROR! BOOKMARK NOT DEFINED.

Gambar 3. 3 Ketaatan keanggotaan fuzzy segitiga ERROR! BOOKMARK NOT DEFINED.

Gambar 3. 4 Prestasi kerja keanggotaan fuzzy segitiga ERROR! BOOKMARK NOT DEFINED.

Gambar 3. 5 Tanggung jawab keanggotaan fuzzy segitita ERROR! BOOKMARK NOT DEFINED.

Gambar 3. 6 Kejujuran kenggotaan fuzzy segitiga ERROR! BOOKMARK NOT DEFINED.

Gambar 3. 7 Kerjasama kenggotaan fuzzy segitiga ERROR! BOOKMARK NOT DEFINED.

Gambar 3. 8 Kepemimpinan Kenggotaan Fuzzy Segitiga ERROR! BOOKMARK NOT DEFINED.

Gambar 4. 1 Tampilan menu utama ERROR! BOOKMARK NOT DEFINED.

Gambar 4. 2 Range-range kriteria ERROR! BOOKMARK NOT DEFINED.

Gambar 4. 3 Tampilan matriks perbandingan ahp ERROR! BOOKMARK NOT DEFINED.

Gambar 4. 4 Tampilan bobot kriteria ERROR! BOOKMARK NOT DEFINED.

Gambar 4. 5 Tampilan hasil keputusan menggunakan fahp ERROR! BOOKMARK NOT DEFINED.

Gambar 4. 6 Data hasil pengajuan posisi jabatan fahp ERROR! BOOKMARK NOT DEFINED.


(16)

DAFTAR TABEL

Tabel 2. 1 Kriteria pembobotan metode ahp saaty (1990) ERROR! BOOKMARK NOT DEFINED.

Tabel 2. 2 Matriks perbandingan berpasangan ERROR! BOOKMARK NOT DEFINED.

Tabel 2. 3Matriks perbandingan dengan nilai intensitas ERROR! BOOKMARK NOT DEFINED.

Tabel 2. 4 Nilai random index ERROR! BOOKMARK NOT DEFINED.

Tabel 2. 5 Penjumlahan kolom ERROR! BOOKMARK NOT DEFINED.

Tabel 2. 6 Penjumlahan baris ERROR! BOOKMARK NOT DEFINED.

Tabel 2. 7 Perkalian tpv dengan elemen matriks ERROR! BOOKMARK NOT DEFINED.

Tabel 2. 8 Penjumlahan baris setelah perkalian ERROR! BOOKMARK NOT DEFINED.

Tabel 2. 9 Skala perbandingan tingkat kepentingan fuzzy ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 1 Kriteria ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 2 Kuisioner ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 3 Penilaian responden pertama ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 4 Penilaian responden kedua ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 5 Penilaian responden ketiga ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 6 Penilaian responden keempat ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 7 Penilaian responden kelima ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 8 Penilaian responden keenam ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 9 Penilaian responden ketujuh ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 10 Penilaian responden kedelapan ERROR! BOOKMARK NOT DEFINED.


(17)

Tabel 3. 11 Penilaian responden kesembilan ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 12 Penilaian responden kelima ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 13 Hasil 10 orang responden ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 14 Tingkat kepentingan kriteria ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 15 Kriteria ketaatan ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 16 Kriteria prestasi kerja ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 17 Kriteria tanggung jawab ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 18 Kriteria kejujuran ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 19 Kriteria kerjasama ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 20 Kisaran kriteria kepemimpinan ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 21 Menentukan matriks perbandingan berpasangan ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 22 Matriks perbandingan berpasangan fuzzy ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 23 Matriks perbandingan berpasangan fuzzy ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 24 Perhitungan jumlah baris setiap kolom l,m,u ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 25 Perhitungan fuzzysintesis (si) ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 26 Bobot vektor ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 27 Matriks perbandingan berpasangan ahp ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 28 Perhitungan ∑kolom ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 29 Perhitungan ∑baris ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 30 Mencari nilai eigen ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 31Nilai eigen ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 32 Bobot prioritas ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 33 Nilai matriks dari alternatif ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 34 Matriks perbandingan berpasangan alternatif ERROR! BOOKMARK NOT DEFINED.


(18)

Tabel 3. 35 Penjumlahan kolom dari alternatif ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 36 Perhitungan ∑kolom ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 37 Nilai eigen ERROR! BOOKMARK NOT DEFINED.

Tabel 3. 38 Bobot prioritas ERROR! BOOKMARK NOT DEFINED.


(19)

ABSTRAK

Curah hujan merupakan faktor yang sangat penting dalam bidang pertanian dan perencanaan pembangunan. Penelitian ini bertujuan untuk memprediksi curah hujan dan sifat hujan di Medan menggunakan neural network dengan algoritma

Backpropagation dan Learning Vector Quantization (LVQ). Data curah hujan yang digunakan untuk training adalah data curah hujan selama 30 tahun terakhir. Parameter yang digunakan dalam penelitian ini terdiri dari dua input yakni bulan dan volume curah hujan. Proses training menghasilkan arsitektur terbaik dengan tiga layer untuk Backpropagation dan dua layer untuk Learning Vector Quantization dengan learning rate 0,5. Dari hasil prediksi diperoleh Algoritma

Backpropagation lebih dekat dalam melakukan prediksi data curah hujan 30 tahun terakhir dibandingkan dengan LVQ. Algoritma Backpropagation dan LVQ memiliki tingkat persentase keakuratan 75 – 99 % untuk algoritma

Backpropagation dan 60 – 82 % untuk algoritma LVQ. Hasil pengujian kedua algoritma diatas, pengaruh fenomena El-Nino dan La-Nina tidak begitu signifikan .

Kata Kunci : Neural network, Backpropagation, Learning Vector Quantization,


(20)

COMPARATIVE ANALYSIS OF BACKPROPAGATION AND LEARNING VECTOR QUANTIZATION (LVQ) TO PREDICT

RAINFALL IN MEDAN

ABSTRACT

Precipitation is a very important factor in agriculture and development planning. This study aims to predict precipitation and characteristic of rainfall in Medan using neural network with Backpropagation algorithm and Learning Vector Quantization ( LVQ ). Data of precipitation which used for training is the rainfall data for the last 30 years. The parameters used in this study consists of two inputs , the month and the volume of rainfall (precipitation) . The process of training produces the best architecture with 3 layers for backpropagation and two layers for Learning Vector Quantization with a learning rate 0.5 . From the predicted results obtained Backpropagation algorithm to predict more closely the 30 years data compared to LVQ . Backpropagation and LVQ algorithm has the highest percentage accuracy of 75-99 % for the backpropagation algorithm and 60-82 % for LVQ algorithms . The test results of the two algorithms above, the influence of the El-Nino and La-Nina is not so significant.

Keywords : Neural network , Backpropagation , Learning Vector Quantization,, precipitation .


(21)

BAB 1

PENDAHULUAN

1.1Latar Belakang

Jaringan Syaraf Tiruan (JST) adalah sebuah alat pemodelan data statistik non-linier. JST dapat digunakan untuk memodelkan hubungan yang kompleks antara input

dan output untuk menemukan pola-pola pada data.Jaringan Syaraf Tiruan merupakan salah satu sistem pemrosesan informasi yang didesain dengan menirukan cara kerja otak manusia dalam menyelesaikan suatu masalah dengan melakukan proses pembelajaran melalui perubahan bobot sinapsisnya.Sebuah JST dikonfigurasikan untuk aplikasi tertentu seperti pengenalan pola atau klasifikasi data, melalui proses pembelajaran. Pada proses pembelajaran, kedalam jaringan saraf tiruan dimasukkan pola-pola input atau outputlalu jaringan akan diajari untuk memberikan jawaban yang bisa diterima.

Pada penelitian Yuniar, et al, 2013 dengan judul Perbaikan Metode Prakiraan Cuaca Bandara Abdulrahman Saleh dengan algoritma Neural NetworkBackpropagation. Penelitian ini bertujuan untuk memprakirakan kecepatan angin dancurah hujan di Bandara Abdulrahman Saleh Malang menggunakan neural network multilayer dengan algoritma Backpropagation. Parameter yang digunakan dalam penelitian ini terdiri dari tiga input yakni suhu udara, kelembaban udara, tekanan udara dan dua output yakni kecepatan angin dan curah hujan. Proses trainingmenghasilkan arsitektur terbaik dengan hidden layer 5dan learning rate

0,9. Dari grafik hasil prakiraan diketahui bahwa output prakiraan sudah mendekati nilai target. Model telah berhasil melakukan proses prakiraan dengan baik dengan nilai MSE prakiraan kecepatan angin sebesar 0,0086 dan nilai MSE prakiraan curah hujan sebesar 0,004846.


(22)

Pada penelitian Silvia, E. 2007, Didesain jaringan syaraf tiruan untuk memprediksi kualitas gulakristal putih.Sistem ini dibangun dengan menggunakan Jaringan Syaraf Tiruan (JST) dalam sebuah interfaceyang mudah dipahami yang disebut Sugar Quality Prediction(SQP). Algoritma pembelajaran JST yang digunakan adalah Backpropagation(BP) dan Learning Vector Quantization(LVQ).

Sistem SQP menggunakan disain JST dengan arsitektur jaringan

Backpropagation dan LVQ yang terbaik berdasarkan trial and errorpada proses pelatihan. Arsitektur jaringan BP terbaik adalah dengan konfigurasi 35 neuronpada lapisan input, 20 neuronpada hidden layerdan 1 neuronpada lapisan outputatau [35 20 1], fungsi aktivasi purelin, algoritma training trainlm, momentum 0.05, set goal error0.01 danset jumlah epoh 1000 dimana nilai MSEnya 0.0098684 pada epoh ke-2 dan R bernilai 1.000. Arsitektur jaringan LVQ terbaik adalah dengan konfigurasi 35 neuronpada lapisan input, 10 neuronpada competitive layerdan 3 neuronpada lapisan output, algoritma trainingyang dipilih adalah learnlv1, learning rate0.1, setgoal error0.0001 dan set jumlah epoh 1000, dimana nilai MSEnya adalah 0 pada epoh ke-2 dan R bernilai 1.000. Proses pengujian sistem SQP menunjukkan hasil outputmemiliki kesesuaian yang tinggi terhadap target yang telah ditentukan. Implementasi SQP menggunakan data aktual periode 2005 menunjukkan bahwa berdasarkan prediksi BP selama 70 periode terdapat 61 periode yang dihasilkangula kristal putih (GKP) berkualitas 1 dan sebanyak 9 periode berkualitas 2, sedangkan prediksi dengan LVQ menunjukkan bahwa selama 70 periode terdapat 62 periode dimana GKP yang dihasilkan berkualitas 1 dan sebanyak 8 periode berkualitas 2. Hal ini menunjukkan sistem dapat mengelompokkan ke dalam kelas-kelas kualitas GKP.

LVQ adalah suatu metode pelatihan pada lapisan kompetitif terawasi yang akan belajar secara otomatis untuk mengklasifikasikan vektor-vektor input kedalam kelas-kelas tertentu. Kelas-kelas-kelas yang dihasilkan tergantung pada jarak antara vektor-vektor

input. Jika ada 2 vektor input yang hampir sama maka lapisan kompetitif akan mengklasifikasikan kedua vektor input tersebut kedalam kelas yang sama.

Backpropagationadalah metode penurunan gradien untuk meminimalkan kuadrat

error keluaran dengan tiga tahap yang harus dilakukan dalam pelatihan jaringan yaitu tahap perambatan maju (forward propagation), tahap perambatan balik, dan tahap


(23)

perubahan bobot dan bias. Arsitektur jaringan ini terdiri dari input layer, hidden layer

dan output layer

Dengan melihat penelitian Yuniar diatas, maka penulis berniat melakukan melakukan analisis dan perbandingan algoritma dengan judul tesis ini dengan Analisis Perbandingan Back Propagationdengan Learning Vector Quantization (LVQ) untukMemprediksi Curah Hujan Di Medan.

1.2Rumusan Masalah

Berdasarkan latar belakang, maka yang menjadi rumusan masalah pada penelitian ini adalah untuk menganalisis cara kerja algoritma Back Propagationdan

Learning Vector Quantization dalam melakukan training untuk memprediksi curah hujan pada bulan tertentu.

1.3Tujuan Penelitian

Tujuan dari penelitian iniadalah mendapatkan penyebab adanya perbedaaan antara algoritma Back Propagationdengan Learning Vector Quantizationuntuk memprediksi curah hujan.

1.4Batasan Masalah

a. Input data pelatihan dan pengujian berupa curah hujan dalam satuan milimeter perbulan dalam kurun waktu 30 tahun.

b. Output sistem berupa prediksi curah hujan pada bulan yang sama tahun berjalan. c. Tidak membahas perbandingan waktu training antara dua algoritma diatas.

1.5Metodologi Penelitian

Metode penelitian dalam penyusunan tugas ini dibagi menjadi dua tahap yaitu, tahap pengumpulan data serta pembangunan perangkat lunak.

1.5.1 Tahap Pengumpulan Data

Teknik pengumpulan yang dilakukan adalah studi pustaka atau studi literatur. Pengumpulan data dengan cara mengumpulkan literatur, jurnal, paper dan bacaan-bacaan yang ada kaitannya dengan judul penelitian.


(24)

Pada tahap ini dilakukan penulisan program yang sesuai dengan algoritma yang sudah dirancang serta dilakukan pengujian program agar sesuai dengan yang diharapkan.


(25)

BAB 2

LANDASAN TEORI

2.1Jaringan Syaraf Biologi

Otak manusia memiliki struktur yang sangat kompleks dan memiliki kemampuan yang luar biasa. Otak terdiri dari neuron-neuron dan penghubung yang disebut sinapsis. Neuron bekerja berdasarkan impuls/sinyal yang diberikan pada neuron. Neuron meneruskannya pada neuron lain. Diperkirakan manusia memiliki 1012neuron dan 6x1018sinapsis. Dengan jumlah yang begitubanyak, otak mampu mengenali pola, melakukan perhitungan, dan mengontrol organ-organ tubuh dengan kecepatan yanglebih tinggi dibandingkan komputer digital (Puspitaningrum, 2006). Sebagai perbandingan, pengenalan wajahseseorang yang sedikit berubah misal memakai topi, memiliki jenggot tambahan dan lainnya akan lebih cepat dilakukan manusia dibandingkan komputer. Pada waktu lahir, otak mempunyai struktur yang menakjubkan karena kemampuannya membentuk sendiri aturan-aturan/pola berdasarkan pengalamanyang diterima. Jumlah dan kemampuan neuron berkembang seiring dengan pertumbuhan fisik manusia, terutama padaumur 0-2 tahun. Pada 2 tahun pertama umur manusia, terbentuk 1 juta sinapsis per detiknya.


(26)

Perbedaan terminologis antara jaringan syaraf biologis dan tiruan disajikan pada Tabel 2.1.

Tabel 2.1 Perbedaan Jaringan Syaraf Biologis dengan JST(Puspitaningrum, 2006).

Neuron memiliki 3 komponen penting yaitu dendrit, soma dan axon. Dendrit menerima sinyal dari neuron lain. Sinyal/tersebut berupa impuls elektrik yang dikirim melalui celah sinaptik melalui proses kimiawi. Sinyal tersebut dimodifikasi(diperkuat/diperlemah) di celah sinaptik dan selanjutnya soma menjumlahkan semua sinyal-sinyal yang masuk. Kalau jumlahan tersebut cukup kuat dan melebihi batasambang (threshold), maka sinyal tersebut akan diteruskan ke sel lain melalui axon. Frekuensi penerusan sinyal berbeda-bedaantara satu sel dengan yang lain. Neuron biologi merupakan sistem yang "fault tolerant" dalam 2 hal. Pertama, manusia dapat mengenali sinyal input yang agak berbeda dari yang pernah kita terimasebelumnya. Sebagai contoh, manusia sering dapat mengenali seseorang yang wajahnyapernah dilihat dari foto, atau dapat mengenali seseorang yang wajahnya agak berbedakarena sudah lama tidak dijumpainya. Kedua, otak manusia tetap mampu bekerja meskipun beberapa neuronnya tidakmampu bekerja dengan baik. Jika sebuah neuron rusak, neuron lain kadang-kadang dapat dilatih untuk menggantikan fungsi sel yang rusak tersebut.

2.2Jaringan Syaraf Tiruan (Neural Network (NN))

Jaringan Syaraf Tiruan (JST) adalah suatu metode pembelajaran yang diinspirasi dari jaringan sistem pembelajaran biologis yang terjadi dari jaringan selsyaraf (neuron) yang terhubung satu dengan yang lainnya (Silvia, 2007).


(27)

Berikut adalah beberapa definisi JST :

a. JST adalah suatu teknik pemrosesan informasi berbasis komputer yang mensimulasikan dan memodelkan sistem syaraf biologis.

b. Suatu model matematik yang mengandung sejumlah besar elemen pemroses yang diorganisasikan dalam lapisan-lapisan.

c. Suatu sistem komputasi yang dibuat dari sejumlah elemen pemroses yang sederhana dan saling diinterkoneksikan untuk memproses informasi melalui masukan dari luar dan mampu inresponsi keadaan yang dinamis.

d. JST adalah suatu teknologi komputasi yang berbasis hanya pada model syaraf biologis dan mencoba mensimulasikan tingkah laku dan kerja model syaraf. e. JST adalah sistem pemroses informasi yang memiliki karakteristik mirip

dengan jaringan syaraf biologi. JST dibentuk sebagai generalisasi model matematika dari jaringan syaraf biologi dengan asumsi bahwa:

1. Pemrosesan informasi terjadi pada banyak elemen sederhana (neuron). 2. Sinyal dikirimkan diantara neuron-neuron melalui

penghubung-penghubung.

3. Penghubung antar neuron memiliki bobot yang akan memperkuat atau memperlemah sinyal.

4. Untuk menentukan output, setiap neuron menggunakan fungsi aktivasi (biasanyabukan fungsi linier) yang dikenakan pada jumlahan input yang diterima. Besarnya output ini selanjutnya dibandingkan dengan suatu batas ambang.

2.3Arsitektur Jaringan Syaraf

Beberapa arsitektur jaringan yang sering dipakai dalam jaringan syaraf tiruan antara lain (Siang, 2005):

a. Jaringan Layar Tunggal (single layer network)

JST dengan layar tunggal pertamakali dirancang oleh Widrow dan Hoff pada tahun 1960. Walaupun JST layar tunggal ini sangat terbatas penggunaannya, namun konsep dan gagasannya banyak dipakai oleh beberapa pakar untuk membuat model JST layar jamak.Dalam jaringan ini, sekumpulan inputneuron

dihubungkan langsung dengan sekumpulan output. Dalam beberapa model (misal perceptron), hanya ada sebuah unit neuronoutput.


(28)

Gambar 2.2 Jaringan Layar Tunggal (Siang, 2005)

Gambar 2.2. menunjukkan arsitektur jaringan dengan n unit input (x1,x2,

... , xn) dan m buah unit output (Y1, Y2, ... , Ym) dimana dalam jaringan ini semua

unit input dihubungkan dengan semua unit output, meskipun dengan bobot yang berbeda-beda. Tidak ada unit input yang dihubungkan dengan unit input lainnya. Demikian pula dengan unit output.

Besarnya wji menyatakan bobot hubungan antara unit ke-i dalam input

dengan unit ke-j dalam output. Bobot-bobot ini saling independen. Selama proses pelatihan, bobot-bobot tersebut akan dimodifikasi untuk meningkatkan keakuratan hasil.

b. Jaringan Layar Jamak (multi layer network)

Jaringan layar jamak merupakan perluasan dari layar tunggal. Dalam jaringan ini, selain unit input dan output, ada unit-unit lain (sering disebut layar tersembunyi). Dimungkinkan pula ada beberapa layar tersembunyi. Sama seperti pada unit input dan output, unit-unit dalam satu layar tidak saling berhubungan.


(29)

Gambar 2.3. adalah jaringan dengan n buah unit input (x1, x2, ... , xn),

sebuah layar tersembunyi yang terdiri dari p buah unit (z1, ... , zp) dan m buah unit

output (Y1, Y2, ... , Ym). Jaringan layar jamak dapat menyelesaikan masalah yang

lebih kompleks dibandingkan dengan layar tunggal, meskipun kadangkala proses pelatihan lebih kompleks dan lama.

c. Model JST dua lapisan dengan umpan balik

Tokoh yang pertamakali mencetuskan ide tentang model jaringan syaraf tiruan dengan umpan balik adalah John Hopfield dari California Institute of Technology pada tahun 1982. Hopfield berpendapat bahwa kumpulan neuron

tiruan dalam jumlah yang sangat besar dapat melakukan tugas-tugas tertentu. Hopfield juga membandingkan antara jumlah neuron pada binatang dengan jumlah neuron diperkirakan sekitar 1000 buah dan bila dibandingkan dengan manusia, jumlah neuron-nya mencapai 100 trilyun buah. Sungguh jumlah yang sangat fantastis.Dengan jumlah neuron yang sangat besar, JST memiliki sifat yaitu

fault tolerance. Sifat ini mengandung maksud kerusakan sedikit atau sebagian pada sel-sel dalam jaringan tidak akan mempengaruhi output yang akan dikeluarkan.Model JST dua lapisan ini mempunyai sifat umpan balik, sehingga

output yang dihasilkan akan mempengaruhi input yang akan masuk lagi ke dalam jaringan syaraf tersebut.

Gambar 2.4 Model JST Dua Lapisan Dengan Umpan Balik

d. Model JST lapisan kompetitif

Bentuk dari lapisan kompetitif merupakan bagian dari jumlah yang besar pada jaringan syaraf. Pada dasarnya, hubungan antara neuron satu dengan neuron

yang lain pada lapisan kompetitif tidak ditunjukkan secara arsitektur pada beberapa jaringan syaraf. Contoh dari model atau arsitektur lapisan kompetitif


(30)

dapat dilihat pada Gambar 2.5, dimana koneksi dari lapisan tersebut memiliki bobot –ε.

Gambar 2.5 Model JST Lapisan Kompetitif

2.4 Fungsi Aktivasi

Jaringan syaraf merupakan salah satu representasi buatan dari otak manusia yang selalu mencoba untuk mensimulasikan proses pembelajaran pada otak manusia tersebut. Istilah buatan disini digunakan karena jaringan syaraf ini diimplementasikan dengan menggunakan program komputer yang mampu menyelesaikan sejumlah proses perhitungan selama proses pembelajaran.

Ada beberapa tipe jaringan syaraf, namun demikian, hampir semuanya memiliki komponen-komponen yang sama. Seperti halnya otak manusia, jaringan syaraf juga terdiri dari beberapa neuron, dan ada hubungan antara neuron-neuron tersebut.

Neuron-neuron tersebut akan mentransformasikan informasi yang diterima melalui sambungan keluarnya menuju ke neuron-neuron yang lain. Pada jaringan syaraf, hubungan ini dikenal dengan nama bobot. Informasi tersebut disimpan pada suatu nilai tertentu pada bobot tersebut. Gambar 2.6 menunjukkan struktur neuron pada jaringan syaraf.


(31)

Jika dilihat, neuron buatan ini sebenarnya mirip dengan sel neuron biologis.

Neuron-neuron buatan tersebut bekerja dengan cara yang sama pula dengan neuron

-neuron biologis. Informasi (disebut dengan : input) akan dikirim ke neuron dengan bobot kedatangan tertentu. Input ini akan diproses oleh suatu fungsi perambatan yang akan menjumlahkan nilai-nilai semua bobot yang datang. Hasil penjumlahan ini kemudian akan dibandingkan dengan suatu nilai ambang (threshold) tertentu melalui fungsi aktivasi setiap neuron. Apabila input tersebut melewati suatu nilai ambang tertentu, maka neuron tersebut akan diaktifkan, tapi kalau tidak, maka neuron tersebut tidak akan diaktifkan. Apabila neuron tersebut diaktifkan, maka neuron tersebut akan mengirimkan output melalui bobot-bobot output nya ke semua neuron yang berhubungan dengannya dan demikianlah seterusnya.

Pada jaringan syaraf, neuron-neuron akan dikumpulkan dalam lapisan-lapisan (layer) yang disebut dengan lapisan neuron (neuron layers). Biasanya neuron-neuron

pada satu lapisan akan dihubungkan dengan lapisan-lapisan sebelum dan sesudahnya (kecuali lapisan input dan lapisan output). Informasi yang diberikan pada jaringan syaraf akan dirambatkan lapisan ke lapisan, mulai dari lapisan input sampai ke lapisan

output melalui lapisan yang lainnya, yang sering dikenal dengan nama lapisan tersembunyi (hidden layer). Tergantung pada algoritma pembelajarannya, bisa jadi informasi tersebut akan dirambatkan secara mundur pada jaringan. Gambar 2.7 menunjukkan jaringan syaraf sederhana dengan fungsi aktivasi F.

Gambar 2.7 Fungsi Aktivasi Pada Jaringan Syaraf Sederhana(Puspitaningrum, 2006)

Pada Gambar 2.7 tersebut sebuah neuron akan mengolah N input (x1, x2, ... , xN)


(32)

( )

x f

( )

x

(

f

( )

x

)

f' =σ 1−

= +

= N

i i iw x b a

1

kemudian fungsi aktivasi F akan mengaktivasi a menjadi output jaringan y. Ada beberapa fungsi aktivasi yang sering digunakan dalam jaringan syaraf tiruan. Fungsi Aktivasi yang digunakan pada Backpropagation antara lain :

a. Fungsi sigmoid biner b. Fungsi sigmoid bipolar c. Fungsi linear

a. Fungsi sigmoid biner

Dalam Backpropagation, fungsi aktivasi yang dipakai harus memenuhi beberapa syarat yaitu : kontinu, terdiferensial dengan mudah dan merupakan fungsi yang tidak turun. Salah satu fungsi yang memenuhi ketiga syarat tersebut sehingga sering dipakai adalah fungsi sigmoid biner yang memiliki range (0,1).

Fungsi ini digunakan untuk jaringan syaraf yang dilatih dengan menggunakan metode Backpropagation. Fungsi sigmoid biner memiliki nilai pada range 0 sampai 1. Oleh karena itu, fungsi ini sering digunakan untuk jaringan syaraf yang membutuhkan nilai output yang terletak pada interval 0 sampai 1. Namun, fungsi ini bisa juga digunakan oleh jaringan syaraf yang nilai

output nya 0 atau 1 (Gambar 2.8).

Fungsi sigmoid biner dirumuskan sebagai :

( )

x

e x

f

y σ

+ = =

1 1 dengan :


(33)

b. Fungsi sigmoid bipolar

Fungsi sigmoid bipolar hampir sama dengan fungsi sigmoid biner, hanya saja output dari fungsi ini memiliki range antara 1 sampai -1 (Gambar 2.9).Fungsi sigmoid bipolar dirumuskan sebagai:

dengan:

Gambar 2.9 Fungsi Aktivasi Sigmoid Bipolar(Puspitaningrum, 2006)

c. Fungsi linear (identitas)

Fungsi linear memiliki nilai output yang sama dengan nilai input (Gambar 2.10).Fungsi linear dirumuskan sebagai :

y = x

Gambar 2.10 Fungsi Aktivasi Linear (Puspitaningrum, 2006)

( )

xx e e x

f

y

− + − = =

1 1

( )

x

[

f

( )

x

]

[

f

( )

x

]

f = 1+ 1−

2


(34)

2.5 Jaringan Syaraf Learning Vector Quantization (LVQ)

Learning Vector Quantization (LVQ) adalah suatu metode untuk melakukanpembelajaran pada lapisan kompetitif yang terawasi. LVQ merupakan single-layer netpada lapisan masukan yang terkoneksi secaralangsung dengan setiap neuron pada lapisan keluaran. Koneksi antar neuron tersebutdihubungkan dengan bobot / weight. Neuron-neuron keluaran pada LVQ menyatakan suatukelas atau kategori tertentu (Kusumadewi, 2004).

Proses pembelajaran pada LVQ dilakukan melalui beberapa epoh (jangkauan waktu) sampai batas epoh maksimal terlewati.LVQ melakukan pembelajaran pada lapisan kompetitif yang terawasi. Suatu lapisankompetitif akan secara otomatis belajar untuk mengklasifikasikan vektor-vektor input.Kelas-kelas yang didapatkan sebagai hasil dari lapisan kompetitif ini hanya tergantung padajarak antara vektor-vektor input. Jika 2 vektor-vektor input mendekati sama, maka lapisankompetitif akan meletakkan kedua vektor input tersebut ke dalam kelas yang sama.

Menurut Pujara (2013), LVQ merupakan metode klasifikasi data adaptif berdasarkan pada data pelatihan dengan informasi kelas yang diinginkan. Walaupun merupakan suatu metoda pelatihan supervisedtetapi LVQ menggunakan teknik data

clustering unsuperviseduntuk pra proses set data dan penentuan clustercenter-nya. Arsitektur jaringan LVQ hampir menyerupai suatu jaringan pelatihan kompetitif kecuali pada masing-masing unit output-nya yang dihubungkan dengan suatu kelas tertentu. Kusumadewi, S.& Hartati, S. 2004menyatakan LVQ merupakan metoda untuk melakukan pelatihan terhadap lapisan-lapisan kompetitif supervised. Lapisan kompetitif akan belajar secara otomatis untuk melakukan klasifikasi terhadap vektor inputyang diberikan. Apabila beberapa vektor inputmemiliki jarak yang sangat berdekatan, maka vektor-vektor inputtersebut akan dikelompokkan dalam kelas yang sama.Pemrosesan yang terjadi pada setiap neuron adalah mencari jarak antarasuatu vektor input ke bobot yang bersangkutan (w1 dan w2). Dimana w1 adalah vektor bobot yangmenghubungkan setiap neuron pada lapisan input ke neuron pertama pada lapisan output,sedangkan w2 adalah vektor bobot yang menghubungkan setiap neuron pada lapisan input keneuron yang kedua pada lapisan output. Fungsi aktivasi F1 akan memetakan y_in1 ke y1 = 1 apabila:


(35)

Demikian pula dengan yang terjadi pada fungsi aktivasiF2, akan memetakan y_in1 ke y1 = 1 apabila |X – w2| < |X – w1|, dan y1 = 0 jika sebaliknya.

Gambar 2.11 menunjukan jaringan LVQ dengan unit pada lapisan input, dan 2 unit (neuron)pada lapisan output.

Gambar 2.11 Arsitektur Jaringan Learning Vector Quantization

(Kusumadewi,2004)

Algoritma untuk LVQ adalah sebagai berikut: Notasi x : training vector (X1, X2, ..., Xn) T : kategori dari training vector yang benar Wj : Vektor bobot untuk kategori j

Cj : Kategori j (hasil training) ||X – Wj|| : jarak Euclidian. Step 0 Inisialisasi

Step 1 Jika kondisi stop salah, lakukan step 2 s.d. step 6 Step 2 Untuk setiap vector training, lakukan step 3 s.d. step 4

Step 3 dapatkan j sehingga ||X – Wj|| minimum Step 4 Update Wj

Wj(baru) = Wj(lama) + α (X – Wj(lama)) ; Jika T = Ci Wj(baru) = Wj(lama) – α (X – Wj(lama)) ; Jika T ≠ Ci Step 5 Update Learning rate


(36)

Setelah dilakukan pelatihan, akan diperoleh bobot akhir (W). Bobot-bobot ini nantinyaakan digunakan untuk melakukan simulasi atau pengujian data yang lain. 2.6Jaringan Syaraf Backpropagation

Backpropagation adalah metode penurunan gradien untuk meminimalkan kuadrat error keluaran. Ada tiga tahap yang harus dilakukan dalam pelatihan jaringan, yaitu tahap perambatan maju (forward propagation), tahap perambatan balik, dan tahap perubahan bobot dan bias. Arsitektur jaringan ini terdiri dari input layer, hidden layer, dan output layer (Andrijasa, 2010).

Y1 Yk Ym

w01 w11 wj1 wp1 w0k w1k wjk wpk w0m w1m wjm wpm

Z1 Zj Zp

X1 Xi Xn

v01 v11 vi1 vn1 v0j v1j vij vnj v0p v1p vip vnp

1

1

Gambar 2.12 Arsitektur jaringan Backpropagation (Andrijasa, 2010). Keterangan :

X = Masukan (input)

V = Bobot lapisan tersembunyi W = Bobot lapisan keluaran

n = Jumlah unit pengolah lapisan tersembunyi Z = Lapisan tersembunyi (hidden layer)

Y = Keluaran (output)

Backpropagation memiliki beberapa unit yang ada dalam satu atau lebih layar tersembunyi. Gambar 2.12 adalah arsitektur backpropagation dengan n buah masukan (ditambah sebuah bias), sebuah layar tersembunyi yang terdiri dari p unit (ditambah sebuah bias), serta m buah unit keluaran.


(37)

Vji merupakan bobot garis dari unit masukan Xi ke unit layar tersembunyi Zj (Vjo

merupakan bobot garis yang menghubungkan bias di unit masukan ke unit layar tersembunyi Zj). Wkj merupakan bobot dari unit layar tersembunyi Zj ke unit keluaran

Yk (Wk0 merupakan bobot dari bias di layar tersembunyi ke unit keluaran Zk).

2.6.1 Pelatihan Standar Backpropagation

Pelatihan Backpropagation meliputi 3 fase. Fase pertama adalah fase maju. Pola masukkan dihitung maju mulai dari layar masukkan hingga layar keluaran menggunakan fungsi aktivasi yang ditentukan. Fase kedua adalah fase mundur dimana selisih antara keluaran jaringan dengan target yang diinginkan merupakan kesalahan yang terjadi. Kesalahan tersebut dipropagasikan mundur dimulai dari garis yang berhubungan langsung dengan unit-unit keluaran. Fase ketiga adalah modifikasi bobot untuk menurunkan kesalahan yang terjadi.

Fase I : Propagasi maju Fase II : Propagasi mundur Fase III : Perubahan bobot

Ketiga fase tersebut diulang – ulang terus hingga kondisi penghentian dipenuhi. Iterasi akan dihentikan jika jumlah iterasi yang dilakukan sudah melebihi jumlah maksimum iterasi yang ditetapkan, atau jika kesalahan yang terjadi sudah lebih kecil dari batas toleransi yang diijinkan (Andrijasa, 2010).

Algoritma pelatihan untuk jaringan backpropagation

a) Inisialisasi bobot (set bilangan acak kecil) b) Step 1

Selama kondisi salah, lakukan steps 2 – 9 c) Step 2

Untuk setiap pasangan data training lakukan step 3 – 8

Fase Feedforward

c) Step 3

Setiap neuron input Xi menerima inputsignal Xi dan meneruskannya

ke semua neuron hidden pada layer diatasnya. d) Step 4


(38)

Setiap neuron hidden Zj menjumlahkan semua signal inputnya.

Menjalankan fungsi aktifasinya untuk menghitung signal output-nya Zj= f(z_in) dan meneruskan signal ini kesemua neuron output pada

layer diatasnya. e) Step 5

Setiap neuron output Ykmenjumlah signal input berbobotnya.

Menjalankan fungsi aktifasinya untuk menghitung signal output -nya.

yk = f(y_ink).

Backpropagation dari error

f) Step 6

Setiap neuron output Yk menerima pola target yang terkait dengan

input pola training, menghitung komponen error

dan menghitung komponen perubahan bobot (untuk mengubah wjk

nanti)

Menghitung komponen bias (untuk mengubah Wok nanti)

Dan mengirim δk ke neuron pada layerdi bawahnya

g) Step 7

Setiap neuron hidden Zjmenjumlahkan inputdelta-nya (dari neuron

di atasnya)

Mengalikan dengan turunan dari fungsi aktifasi untuk menentukan komponen koreksi error-nya

Menghitung komponen koreksi errornya (untuk mengubah vij nanti)

Menghitung komponen koreksi error-nya (untuk mengubah v0j

nanti)

+ = i ij i oj

j v xv in z_

+ = j jk j ok

k w z w

in y_ ) _ ( ' )

(k k k

k = ty f y in

δ

j k

jk z

w =αδ

= = m k jk k j w in 1 _ δ δ ) _ ( '

_ j j

j δ in f z in

δ =

+ = j jk j ok

k w z w

in y_

k k

w =αδ

0

j j

v =αδ


(39)

h) Step 8

Setiap neuron output Ykmengubah bobot dan biasnya:

wjk (baru) = wjk (lama) + Δwjk.

Setiap neuron hidden Zjmengubah bobot dan biasnya:

vjk (baru) = vjk (lama) + Δvjk

i) Step 9

Test stopping condition

f1(y_ink) dan f’(z_inj) dapat dinyatakan dalam bentuk yk dan zk

tergantung fungsi aktifasi yang digunakan.

2.6.2 Inisialisasi Bobot Awal

Pemilihan bobot awal sangat mempengaruhi jaringan saraf dalam mencapai minimum global terhadap nilai error, serta cepat tidaknya proses pelatihan menuju kekonvergenan. Apabila nilai bobot awal terlalu besar, maka input ke setiap lapisan sembunyi atau lapisan output akan jatuh pada daerah dimana turunan fungsi sigmoidnya sangat kecil dan apabila nilai bobot awal terlalu kecil maka input ke setiap lapisan tersembunyi atau lapisan output akan sangat kecil yang akan menyebabkan proses pelatihan akan berjalan sangat lambat (Puspitaningrum, 2006).

Inisialisasi bobot awal terdiri dari 2 yaitu : 1. Inisialisasi Bobot Awal Secara Random

Inisialisasi bobot awal secara random biasanya bobot awal diinisialisasi secara random dengan nilai antara -0.5 sampai 0.5 (atau -1 sampai 1, atau interval yang lainnya).

2. Inisialisasi Bobot Awal Dengan Metode Nguyen-Widrow

Metode Nguyen-Widrow akan menginisalisasi bobot-bobot lapisan dengan nilai antara -0.5 sampai 0.5. Sedangkan bobot-bobot dari lapisan input ke lapisan tersembunyi dirancang sedemikian rupa sehingga dapat meningkatkan kemampuan lapisan tersembunyi dalam melakukan proses pembelajaran.

2.7 Curah Hujan

Curah hujan merupakan ketinggian air hujan yang terkumpul dalam tempat yang datar, tidak menguap, tidak meresap, dan tidak mengalir. Curah hujan 1


(40)

(satu) milimeter artinya dalam luasan satu meter persegi pada tempat yang datar tertampung air setinggi satu milimeter atau tertampung air sebanyak satu liter. Intensitas hujan adalah banyaknya curah hujan persatuan jangka waktu tertentu. Apabila dikatakan intensitasnya besar berarti hujan lebat dan kondisi ini sangat berbahaya karena berdampak dapat menimbulkan banjir, longsor dan efek negatif terhadap tanaman.

Hujan merupakan satu bentuk presipitasi yang berwujud cairan. Presipitasi sendiri dapat berwujud padat (misalnya salju dan hujan es) atau aerosol (seperti embun dan kabut). Hujan terbentuk apabila titik air yang terpisah jatuh ke bumi dari awan. Tidak semua air hujan sampai ke permukaan bumi karena sebagian menguap ketika jatuh melalui udara kering. Hujan jenis ini disebut sebagai virga. Hujan memainkan peranan penting dalam siklus hidrologi. Lembaban dari laut menguap, berubah menjadi awan, terkumpul menjadi awan mendung, lalu turun kembali ke bumi, dan akhirnya kembali ke laut melalui sungai dan anak sungai untuk mengulangi daur ulang itu semula. Intensitas curah hujan adalah jumlah curah hujan yang dinyatakan dalam tinggi hujan atau volume hujan tiap satuan waktu, yang terjadi pada satu kurun waktu air hujan terkonsentrasi. Besarnya intensitas curah hujan berbeda-beda tergantung dari lamanya curah hujan dan frekuensi kejadiannya.

Intensitas curah hujan yang tinggi pada umumnya berlangsung dengan durasi pendek dan meliputi daerah yang tidak luas. Hujan yang meliputi daerah luas, jarang sekali dengan intensitas tinggi, tetapi dapat berlangsung dengan durasi cukup panjang. Kombinasi dari intensitas hujan yang tinggi dengan durasi panjang jarang terjadi, tetapi apabila terjadi berarti sejumlah besar volume air bagaikan ditumpahkan dari langit. Adapun jenis-jenis hujan berdasarkan besarnya curah hujan (BMKG), diantaranya yaitu hujan kecil antara 0 – 21 mm per hari, hujan sedang antara 21 – 50 mm per hari dan hujan besar atau lebat di atas 50 mm per hari.

2.8 Faktor Yang Mempengaruhi Curah Hujan

Sebagai salah satu kawasan tropis yang unik dinamika atmosfernya dimana banyak dipengaruhi oleh kehadiran angin pasat, angin monsunal, iklim maritim dan pengaruh berbagai kondisi lokal, maka cuaca dan iklim di Indonesia diduga memiliki karakteristik khusus yang hingga kini mekanisme proses pembentukannya belum diketahui banyak orang. Secara umum curah hujan di wilayah Indonesia didominasi


(41)

oleh adanya pengaruh beberapa fenomena, antara lain sistem Monsun Asia-Australia, El-Nino, sirkulasi Timur-Barat (Walker Circulation) dan sirkulasi Utara-Selatan(Hadley Circulation) serta beberapa sirkulasi karena pengaruh local (BMKG, 2013).

Variabilitas curah hujan di Indonesia sangatlah kompleks dan merupakan suatu bagian chaotic dari variabilitas monsun. Monsundan pergerakan ITCZ (Intertropical Convergence Zone) berkaitan dengan variasi curah hujan tahunan dan semi tahunan diIndonesia, sedangkan fenomena El-Nino dan Dipole Mode berkaitan dengan variasi curah hujan antartahunan di Indonesia(BMKG, 2013).

Indonesia dikenal sebagai satu kawasan benua maritim karena sebagian besar wilayahnya didominasi oleh lautan dan diapit oleh dua Samudera yaitu Samudera Hindia dan Samudera Pasifik. Oleh karenaitu elemen (unsur) iklimnya terutama curah hujan memungkinkan dipengaruhi oleh keadaan Suhu Permukaan Laut (SPL) di sekitarnya. Salah satu fenomena yang dicirikan oleh adanya suatu perubahan SPL yang kemudian mempengaruhi curah hujandi Indonesia adalah fenomena yang terjadi di Samudera Hindia yang dikenal dengan istilah Dipole Mode (DM) yang tidak lain merupakan fenomena coupleantara atmosfer dan laut yang ditandai dengan perbedaan anomali dua kutub Suhu PermukaanLaut (SPL) di Samudera Hindia tropis bagian timur (perairan Indonesia di sekitar Sumatera dan Jawa) dan Samudera Hindia tropis bagian tengah sampai barat (perairan pantai timur Benua Afrika).

Pada saat anomali SPL di Samudera Hindia tropis bagian barat lebih besar daripada di bagian timurnya, maka terjadi peningkatan curah hujan dari normalnya di pantai timur Afrika dan Samudera Hindia bagianbarat. Sedangkan di Indonesia mengalamipenurunan curah hujan dari normalnya yang menyebabkan kekeringan, kejadian ini biasa dikenal dengan istilah Dipole Mode Positif (DM +). Fenomena yang berlawanan dengan kondisi ini dikenal sebagai DM (-). Hasil kajian yang telah dilakukanmenunjukkan adanya hubungan antarafenomena DM dengan curah hujan yang terjadi di atas Sumatera bagian Selatan sebesar -0,81. Selain itu adanya pengaruh DM terhadap curah hujan di Benua Maritim Indonesia (BMI) yang berdampak kepada DM, angin zonal serta curah hujan di Sumatera Barat. Seperti halnya di Sumatera Barat, analisis keterkaitan kejadian DM terhadap perilaku curah hujan yang tersebar di beberapa stasiun penakar curah hujan yang ada di Sumatera Barat dan Sumatera


(42)

Selatan. Dengan menggunakan lebih banyak data stasiun untuk kedua kawasan tersebut, diharapkan dapat dianalisis keadaan curah hujan di kawasan tersebut yang mewakili curah hujan sebenarnya terutama yang terjadi pada saat kejadian DM.

Untuk memprediksi kecenderungan yang akan terjadi pada periode mendatang adalah melihat tiga kemungkinan kejadian yaitu kondisi normal, ada El Nino ataumuncul La Nina(BMKG, 2013). Ada cara yang dapat dilakukan dengan melihat prediksi anomali suhu muka laut (Sea Surface Temperatur Anomaly (SSTA)).


(43)

BAB 3

METODOLOGI PENELITIAN

Curah hujan adalah merupakan ketinggian air hujan yang jatuh pada tempat yang datar dengan asumsi tidak menguap, tidak meresap dantidak mengalir. Curah hujan 1 (satu) mm adalah air hujan setinggi 1 (satu) mm yang jatuh (tertampung) pada tempat yang datar seluas 1m2dengan asumsi tidak ada yang menguap, mengalir dan meresap.

Curah hujan kumulatif 1 (satu) bulan adalahjumlah curah hujan yang terkumpul selama 28 atau 29 hari untuk bulan Pebruari dan 30 atau 31 hari untuk bulan-bulan lainnya. Sifat hujan merupakan perbandingan antarajumlah curah hujan kumulatif selama satu bulan di suatu tempat dengan rata-ratanya atau normalnya pada bulan dan tempat yangsama.

Sifat hujan dibagi menjadi 3 (tiga) katagori, yaitu :

a. Sifat Hujan Atas Normal (AN): jika nilai curah hujan lebih dari 115% terhadap rata-ratanya.

b. Sifat Hujan Normal (N): jika nilai curah hujan antara 85% - 115 %terhadap rata-ratanya.

c. Sifat Hujan Bawah Normal (BN): jika nilai curah hujan kurang dari 85 %terhadap rata-ratanya.

Rata-rata curah hujan bulanan didapat dari nilai rata-rata curah hujan masing-masing bulan dengan minimal periode 10 tahun.Sedangkan normal curah hujan bulanan didapat dari nilai rata-rata curah hujan masing-masing bulan selama periode 30 tahun. Intensitas hujan merupakan besarnya hujan harian yang terjadi pada suatu waktu yang umumnya memiliki satuan mm/jam.


(44)

Intensitas hujan dibagi menjadi3 (tiga) katagori, yaitu:

a. Enteng (tipis) : jika nilai curah hujan kurang dari 13 mm/jam b. Sedang : jika nilai curah hujan antara 13–38 mm/jam c. Lebat : jika nilai curah hujan lebih dari 38 mm/jam

3.1Flow Chart Rancangan Penelitian

Dalam menganalisis algoritma Backpropagation dengan Learning Vector Quantization untuk memprediksi curah hujan di Kota Medan disusun langkah – langkah yang akan dilakukan dalam penelitian ini yang dapat dilihat seperti flow chart

Gambar 3.1.

Gambar 3.1 Flow Chart Rancangan Penelitian

S

Data Curah Hujan Komulatif

Algoritma Back

Prediksi Curah Hujan

Training/Sim ulasi

Analisis Kinerja Algoritma

Hasil Prediksi


(45)

3.2Bahan Penelitian

Bahan penelitian yang diperoleh dari Badan Meteorologi Klimatologi dan Geofisika Medan berupa data primer curah hujan komulatif bulanan selama 30 tahun seperti pada Tabel 3.1.


(46)

Contoh pembacaan Normal curah hujan: J

an

9

5 - 129 dibawah 95 mm Bawah Normal, diatas 129 mm Atas Normal P

eb

7 2 - 98

dibawah72 mm Bawah Normal, diatas 98 mm Atas Normal

M ar

9

9 - 135 dibawah 99 mm Bawah Normal, diatas 135 mm Atas Normal Rata-rata = jumlah dibagi 30 thn

Batas bawah = 85% x rata-rata Batas atas = 115% x rata-rata

Untuk data curah hujan tahun selanjutnya dilakukan cara yang sama.

3.3Pseudocode Algoritma Backpropagation

Adapun pseudocode algoritma Backpropagation dalam melakukan training

dapat dilihat seperti dibawah ini:

while ((epoch <= ME) and (MSE > eps)) do epoch←epoch+1

for Data ← 0 to jmlData do for j ← 0 to 4 do

Z_net[j] ← 0 Z[j] ← 0

for i ← 0 to maxI do

Z_net[j] ← Z_net[j] + (P[i][ Data] * V[i][j]) endfor

Z[j] ← 1 / (1 + Pow(e, -Z_net[j])) Endfor

End for MS[Data]←0

for k ← 0 to maxK do Y_net[k] ← 0

for j ← 0 to 4 do

Y_net[k] ← Y_net[k] +(Z[j] * W[k][j]) endfor

Y[k] ← 1 / (1 + Pow(e, -Y_net[k])) error[k] ← Pow(T[k, Data] - Y[k],2) MS[Data] ← MS[Data] + error[k] endfor

MS[Data] ← MS[Data] / 7 MSE +← MS[Data] for k = 0 to maxK do

DK[k] = (T[k][ Data] - Y[k]) * Y[k] * (1 - Y[k]) endfor

for k ← 0 to maxK do for j ← 0 to 4 do


(47)

endfor endfor

for j ← 0 to 4 do DK_net[j] ← 0 for k ← 0 to maxK do

DK_net[j] ← DK_net[j] +(DK[k]*W[k][j]) Endfor

endfor

for j ← 0 to 4 do

DS[j] ← DK_net[j] * Z[j] * (1 - Z[j]) endfor

for j ← 0 to 4 do

for i ← 0 to maxI do

dV[i,j] ← rate * DS[j] * P[i, Data] endfor

endfor

for j ← 0 to 4 do

for k ← 0 to maxK do

W[k,j] ← W[k,j] +dW[k,j] endfor

endfor

for j← 0 to 4 do for i ← 0 tomaxI do

V[i,j] ← V[i,j] +dV[i,j] endfor

endfor

MSE ← MSE / jml Data Endwhile

3.4Pseudocode Algoritma Linear Vector Quantization (LVQ)

Adapun pseudocode algoritma LVQ dalam melakukan training adalah sebagai berikut:

while ((Err< MaxErr) or (rate > eps)) do Err←Err+1

for i ← 0 to jmlData do for k ← 0 to jmlKls do

hasil ← 0

for j ← 0 to jmlData do

hasil ← hasil + Pow((P[j][i] - W[j][k]), 2) endfor

H[k] ← Sqrt(hasil) endfor

C ← 0


(48)

if (H[k] < H[C]) then C ← k

endif endfor

if (TK[C] == TP[i]) then for j ← 0 to jmlData do

W[j][C] ← W[j][C] + rate * (P[j][C] - W[j][C]) endfor

else

for j ← 0 to jmlData do

W[j][C] ← W[j][C] - rate * (P[j][C] - W[j][C]) endfor

endif endfor

rate ← rate - (0.1 * rate) endWhile

3.5 Flow Chart Training Backpropagation

Adapun Flowchart dari algoritma TrainingBackpropagation dapat dilihat seperti pada Gambar 3.2.

S

Parameter Jaringan,Vektor Input

Setiap input meneruskan ke hidden layer

Jalankan fungsi aktifasi untuk menghitung

����=��0+� ���

Hitung input bobotnya

Propag Inisialisasi


(49)

Hitung komponen perubahan

Hitung komponen Bias

w =αδ

Setiap neuron hidden menjumlahkan input dari neuron diatasnya

= = m k jk k j w in 1 _ δ δ Hitung komponen error Propag asi Mundur Hitung komponen error

Hitung komponen koreksi errornya (untuk mengubah vij)

+ = j jk j ok k w zw

in y_

Hitung komponen koreksi errornya (untuk mengubah v0j)

j j v =αδ

0

Hitung semua perubahan bobot menuju ke unit keluaran

wjk (baru) = wjk (lama) +

Δw

P erubahan


(50)

Gambar 3.2 FlowchartTraining Algoritma Backpropagation

Keterangan Flowchart : 1. Mulai

2. Masukkan bobot awal

3. Setiap masukan meneruskan ke hidden layer

4. Kerjakan fungsi aktifasi untuk menghitung output

5. Kerjakan untuk menghitung komponen error

6. Kerjakan untuk menghitung komponen perubahan bobot 7. Kerjakan untuk menghitung komponen bias

8. Kerjakan untuk setiap neuron hidden menjumlahkan input dari neuron diatasnya 9. Kerjakan untuk menghitung komponen errornya

10. Kerjakan untuk menghitung koreksi error untuk mengubah Vij

11. Kerjakan untuk menghitung koreksi error untuk mengubah Voj

12. Kerjakan untuk menghitung semua perubahan bobot menuju ke unit keluaran 13. Kerjakan untuk menghitung semua perubahan bobot menuju ke unit keluaran 14. Selesai

3.6Flow Chart Training dengan Linier Vector Quantization (LVQ)

Adapun Flow ChartTrainingdengan Linier Vector Quantization dapat dilihat seperti pada Gambar 3.3.

Sto Kondisi

St ?

Simpan bobot Akhir = wjk


(51)

S

Data Pelatihan

Pendefinisi Input, Output dan

Pembentukan Jaringan LVQ NET =

Bobot,JmlNeuron,(1/JmlKlas)* MinErr (Jumkls))

Penetapan Parameter Pelatihan 1.MaksEpoch = 100

2.MinError = 0.001 3 DecError 0 1

Training Epoch=Epoc

Penetapan JmlKlas, JmlNeuron,

Penetapan Bobot Awal (Wij) i=1,2,...,K. j=1,2,...,m

Wij= 0-1

Inisialisasi Bobot Awal

Perbaikan Bobot Wj

Jika T = Cj maka Wj=Wj+ MinError(Curah Hujan) Jika T <> Cj maka Wj=Wj- MinError (Curah Hujan)


(52)

Gambar 3.3 Flow Chart Training dengan LVQ

3.7Flowchart Algoritma Prediksi Backpropagation

Adapun proses dari algoritma Prediksi Backpropagation seperti pada Gambar 3.4.

Hasil Error <MinError atau

S

S

Vektor Input Uji (xi)

Bobot Terakhir Pelatihan

Setiap Unit pada Output Layer menghitung output

+ =

j jk j ok

k w z w

in y_

�����=��0+� ����� �

Setiap Unit pada Hidden Layer menghitung

output

Menerapkan fungsi aktivasi untuk menghitung sinyal output


(53)

Gambar 3.4 Flow Chart Prediksi Algoritma Backpropagation

3.8 Flowchart Prediksi Algoritma Learning Vector Quantization

Adapun proses dari algoritma PrediksiLearning Vector Quantization adalah seperti pada Gambar 3.5.

Gambar 3.5 Flow Chart Prediksi Algoritma Learning Vector Quantization

3.9Rancangan Hasil Analisis

Dari perancangan dapat diperoleh hasil analisis berupa tabel Waktu Training dan Prediksi hasil seperti pada Tabel 3.2 berikut ini.

S

Vektor Input (Xi) Bobot Terakhir Pelatihan

Setiap Unit pada Hidden Layer menghitung output ||Xi-Wj||

Sto ||Xi-Wj|| Min = Kls (J)

Tampilkan Sto Tampilkan data yang mendekati Yk


(54)

Tabel 3.2 Waktu Training dan Prediksi o

Algoritma Rata-rata Waktu Training (Detik)

Rata-rata Waktu Prediksi (Detik)

Selisih (Detik)

Backpropagation xxx xxx xxx

Linear Vector Quantization

xxx xxx xxx

Serta tabel akurasi prediksi dengan variasi parameter training seperti pada Tabel 3.4 berikut ini.

Paramater:

Epochs = 100

Learning Rate = 0.25

Iterasi = 100

Maks err = 0.001

Pada simulasi dalam memprediksi keakuratan predisksi diperoleh dalam tabel hasil simulasi Akurasi seperti pada Tabel 3.3.

Tabel 3.3Akurasi Prediksi

No Algoritma Akurasi

Backpropagation xxx

Linear Vector Quantization xxx

3.10 Analisis Metode Training dan Prediksi

Algoritma Trainingdan Prediksi yang dibandingkan pada sistem ini adalah

Backpropagation dan Learning Vector Quantization. Tabel 3.4 merupakan perbandingan dasar dari kedua metode tersebut.

Tabel 3.4 Perbandingan Metode Backpropagation dan LVQ

No Parameter Backpropagation LVQ

Alur Training Menggunakan 2 alur, yaitu alur maju (forward propagation) dan alur mundur (backpropagation)

Menggunakan1Aluryaitu alur maju(forward propagation).

Parameter Training Parameter Training yang digunakan adalah maksimalperulangan,

Parameter Training yang digunakan adalah maksimal perulangan,


(55)

Learning rate dan minimal

error.

Learning rate, pengurang rasio dan minimal error. Bobot Training Memiliki 2 nilai bobot

yaitu bobot pada hidden layer (v) dan bobot pada

output layer(w).

Memiliki 1 nilai bobot yaitu bobot pada output layer(w).

Nilai awal setiap bobot diambil dari nilai random yang cukup kecil.

Nilai awal bobot diambil dari salah satu data masukanuntuk

setiapkelas. Perubahan bobot dihitung

dengan alur mundur (backpropagation), yaitu dengan mengubah nilai bobot pada layer output (w), kemudian mengubah nilai bobot pada hidden layer (v).

Perubahan bobotdihitung berdasarkan nilai kelas hasil perhitungan. Jika kelas hasil perhitungan sama dengan kelas targetmaka menggunakan

rumus tambah, dan sebaliknya menggunakan rumus kurang.

Perulangan Training

Perulangan dilakukan selama perulangan belum mencapai maksimal perulangan dan nilai

Mean Square Error (MSE) masihlebih kecil dari minimal eror.

Perulangan dilakukan selama perulangan belum mencapai maksimal perulangan atau nilai perubahan rasio pembelajaran masih lebih kecil dari minimal eror.

Kompleksitas Algoritma

Perhitungan lebih rumit karena menggunakan 11 rumus dalam perhitungan pembelajaran, dan 4 rumus dalam perhitungan pengenalan.

Perhitungan sederhana

karena hanya menggunakan 3 rumus

dalam perhitungan

pembelajaran dan 1 rumusdalam perhitungan pengenalan.

Hasil Training Berupa nilai bobot pada

hidden layer (v) dan bobot pada output layer

(w).

Berupa nilai bobot (w).

Hasil Simulasi Berupa angka biner dari nilai kelas yang dikenali.

Berupa nilai kelas yang dikenali.


(56)

3.11 Proses Training

Proses Trainingmerupakan proses dimana komputer belajar dari sejumlah data yang ada dan menghasilkan nilai bobot. Bobot merupakan nilai yang menunjukkan seberapa besar koneksi antara neuron. Nilai bobot akan bertambah, jika informasi yang diberikan oleh neuron yang bersangkutan tersampaikan, sebaliknya jika informasi tidakdisampaikan oleh suatu neuron ke neuron yang lain, maka nilai bobot yangmenghubungkan keduanya akan dikurangi.

Pada saat pelatihan dilakukan pada input yangberbeda, maka nilai bobot akan diubah secara dinamis hingga mencapai suatu nilai yangcukup seimbang. Apabila nilai ini telah tercapai mengindikasikan bahwa tiap-tiap input telah berhubungan dengan output yang diharapkan.Selama proses pelatihan, masing-masing bobot koneksi dipropagasikan ke seluruh unitatau node dengan metode pelatihan perambatan balik (Backpropagation). Bobot-bobot diatur secara iteratif untuk meminimumkan fungsi kinerja jaringan. Fungsikinerja yang sering digunakan adalah Means Squared Error (MSE), dimana fungsi ini akan mengambil kuadraterror yang terjadi antara output dan target.Proses Trainingpada sistem ini dilakukan dengan menggunakan 2 buah metode, yaitu Backpropagation dan Learning Vector Quantization.

Data yang digunakan sebagai contoh pada proses trainingadalah data curah hujan selama 20 tahun dan data pengujian yang digunakan adalah data curah hujan selama 10 tahun seperti yang telah disajikan pada Tabel 3.5.

Tabel 3.5 Data Curah Hujan Tahun 1980 Tahun Bulan Curah Hujan Kondisi Kode

1980 01 61 BN 3

1980 02 106 BN 3

1980 03 115 BN 3

1980 04 88 BN 3

1980 05 235 AN 1

1980 06 163 BN 3

1980 07 111 BN 3

1980 08 452 AN 2


(57)

1980 10 223 N 1

1980 11 187 N 1

1980 12 478 AN 2

Jumlah 217.25 Range N 185-250

Keterangan:

Kode = 1 adalah curah hujan normal (N) Kode = 2 adalah curah hujan atas normal (AN) Kode = 3 adalah curah hujan bawah normal (BN)

Tabel 3.6 Data Curah Hujan Target dan Kelas bulan Januari 30 Tahun Tahun Curah

Hujan Target (Back Propagasi) Kelas (LVQ)

1980 61 3 3

1981 44 3 3

1982 1 3 3

1983 74 3 3

1984 155 2 2

1985 40 3 3

1986 109 1 1

1987 143 2 2

1988 94 3 3

1989 198 2 2

1990 61 3 3

1991 117 1 1

1992 44 3 3

1993 161 2 2

1994 0 3 3

1995 66 3 3

1996 97 1 1

1997 75 3 3

1998 163 2 2

1999 315 2 2

2000 59 3 3

2001 217 2 2

2002 91 3 3

2003 169 2 2

2004 139 2 2

2005 189 2 2


(58)

2007 170 2 2

2008 127 1 1

2009 72 3 3

Jumlah 3.353

Rata 112

Rx (85%)

95

Rx (115%)

129

Keterangan:

Target = digunakan untuk algoritma Backpropagation

Kelas = digunakan untuk algoritma LVQ

3.12 Perhitungan Backpropagation

Data Curah Hujan yang dilatih sebanyak 30 tahun, dimana 10 tahun pertama digunakan sebagai inisialisasi bobot seperti pada Tabel 3.7.

Tabel 3.7 Data Inisialisasi Bobot bulan Januari Vektor (x) Kelas

1980 61 3

1981 44 3

1982 1 3

1983 74 3

1984 155 2

1985 40 3

1986 109 1 1987 143 2

1988 94 3

1989 198 2

Sedangkan 20 data berikutnya digunakan sebagai data yang akan dilatih seperti pada Tabel 3.8.

Tabel 3.8 Data Pelatihan bulan Januari Vektor (x) Kelas

1990 61 3

1991 117 1

1992 44 3

1993 161 2

1994 0 3


(59)

1996 97 1

1997 75 3

1998 163 2 1999 315 2

2000 59 3

2001 217 2

2002 91 3

2003 169 2 2004 139 2 2005 189 2 2006 104 1 2007 170 2 2008 127 1

2009 72 3

Arsitektur jaringan syaraf dengan 3 input(xi) berupa tahun, bulan dan curah

hujan yang dapat dilihat seperti pada Gambar 3.6.

Gambar 3.6 Arsitektur JaringanBackpropagation

Dari data pada Tabel 3.9 nilai data terkecil (a) adalah 0 dan data terbesar adalah 315 ditransformasikan dalam interval 0.1 - 0.9 dengan fungsi transformasi:

X1’ = 0

.8 (��−1)

�−� + 0.1 X’1 =0

.8 (61−1)

315−0 + 0.1 X’1 = 0.25

X’2 =0

.8 (117−1)

315−0 + 0.1 X’3 = 0.39

X’3 =0

.8 (44−1)

315−0 + 0.1 X’3 = 0.20


(60)

X’4 =0

.8 (161−1)

315−0 + 0.1 X’4 = 0.41

X’5 =0

.8 (0−1)

315−0 + 0.1 X’5 = 0.09

X’6 =0

.8 (66−1)

315−0 + 0.1 X’6 = 0.26

X’7 =0

.8 (97−1)

315−0 + 0.1 X’7 = 0.34

X’8 =0

.8 (75−1)

315−0 + 0.1 X’8 = 0.28

X’9 =0

.8 (163−1)

315−0 + 0.1 X’9 = 0.51

X’10 =0

.8 (315−1)

315−0 + 0.1 X’10 = 0.89

X’11 =0

.8 (59−1)

315−0 + 0.1 X’11 = 0.24

X’12 =0

.8 (217−1)

315−0 + 0.1 X’12 = 0.64

X’13 =0

.8 (91−1)

315−0 + 0.1

X’13 = 0.32

X’14 =0

.8 (169−1)

315−0 + 0.1 X’14 = 0.52

X’15 =0

.8 (139−1)

315−0 + 0.1 X’15 = 0.45

X’16 =0

.8 (189−1)

315−0 + 0.1 X’16 = 0.57

X’17 =0

.8 (104−1)


(61)

X’17 = 0.36

X’18 =0

.8 (170−1)

315−0 + 0.1 X’18 = 0.52

X’19 =0

.8 (127−1)

315−0 + 0.1 X’19 = 0.42

X’20 =0

.8 (72−1)

315−0 + 0.1 X’20 = 0.28

Dari hasil transformasi data di atas diperoleh tabel 3.9.

Tabel 3.9 Data Transformasi Pelatihan Vektor (x1 dan x2) Target (2000-2009)

0.01 0.25 0.24

0.02 0.39 0.64

0.03 0.20 0.32

0.04 0.41 0.52

0.05 0.09 0.45

0.06 0.26 0.57

0.07 0.34 0.36

0.08 0.28 0.52

0.09 0.51 0.42

0.10 0.89 0.28

Untuk algoritma Backpropagation,inisialisasi semua bobot dengan bilangan acak kecil seperti padaTabel 3.10.

Tabel 3.10 Bobot dari input layer (Vi) ke layer tersembunyi (Zi)

Z1 Z2 Z3

V1 0.2 0.3 -0.1

V2 0.3 0.1 -0.1

V3 -0.3 0.3 0.3


(62)

Tabel 3.11 Bobot-bobot dari hidden layer ke output layer

Y Z1 0.5 Z2 -0.3 Z3 -0.4 1 -0.1

Learning Rate = 0.2 Maks Epoch = 1000 Target Err= 10 -10

Epoch ke-1

Data -1 = x1= 0.01, x2= 0.25, T = 0.24

Output Hidden layer (Zj),j = 1,2,3

���� =��0 +� ���

� �=1 ����1= �10+� ���

2 �=1

���1= �10+�111+�212

���1= −0,3 + 0.01∗ 0,2 + 0.25∗ 0,3

���1= −0.3 + (0,002 + 0.075)

���1=-0,223

���2 =�10+� ���

2 �=1

���2 =�20+�121+�222

���2 = 0,3 + 0.01∗ 0,3 + 0.25∗ 0,1

���2 = 0.3 + 0.003 + 0.025

���2 = 0.328

���3 =�30+� ���

2 �=1

���3 =�30+�131+�232


(63)

���3 = 0,3−0.003−0.025

���3 = 0.272

�� = � �������=

1 1 +�−�_����

�1 = ������1�=

1

1 +�−�_���1 =

1

1 +�−(−0,223) = 0,55

�2 =������2�=1 +1−�_���2 =

1

1 +�−(0.328) = 0,67

�3 =������3�=

1

1 +�−�_���3 =

1

1 +�−(0.272) = 0,52

Hitung semua jaringan di unit keluaran (yk)

�_��� = ��0+� ���

� �=1 ����1= �10+� ���

� �=1

= �10+�111+�212+�313 =−0,1 + 0,55 .0,5 + 0,67 . (−0,3) + 0,52 . (−0,4) = 0,24

�� =�(�_����) =

1

1 +�−�_��� =

1

1 +�−0,24 = 0,44

Fase II : Propagasi Maju

Langkah 6

δk=(tk-yk) f’(y_netk)= (tk-yk) yk (1-yk)

δ1=(t1-y1) f’(y_net1)= (t1-y1) y1 (1-y1)=(0-0,44)*0,44*(1-0,44) = -0,11

Δwkj= α δk zj

Δw10= α δ1 (1)=0,2 . (-0,11) . (1) = -0,022

Δw11= α δ1 (z1)=0,2 . (-0,11) . (0,55) = -0,01

Δw12= α δ1 (z2)=0,2 . (-0,11) . (0,67) = -0,01

Δw13= α δ1 (z3)=0,2 . (-0,11) . (0,52) = -0,01


(1)

VQ 4.93 2.08 4.55 7.31 5.44 9.25 1.57 8.63 03.08 13.12 07.29 04.48

eal 66 0 43 5 29 56 20 82 9 61 46 59

3.2 Error : 0.01

MSE Terbaik BP : 0.1000482, Epoch Ke 4000

MSE Terbaik LVQ : 0.1002246, Epoch Ke 4000

Tabel 88. Hasil Persentase Prediksi Epoch: 4000 Error: 0.01

ulan 0 1 2

P 8.7 8.7 8.7 8.7 8.7 2.41 2.78 4.66 6.36 6.46 9.21 6.28

VQ 5.95 3.28 0.83 5.95 2.28 6.17 6.52 2.2 4.95 6.41 1.28 9.14

Tabel 89. Prediksi Curah Hujan Epoch: 4000 Error: 0.01

ulan 0 1 2

P 10.37 4.19 15.15 44.13 82.79 14.26 20.13 25.79 11.13 02.32 49.81 25.58

VQ 4.93 2.08 4.55 7.31 5.44 9.25 1.57 8.63 03.08 13.12 07.29 04.48

eal 66 0 43 5 29 56 20 82 9 61 46 59

3.3 Error : 0.001

MSE Terbaik BP : 0.1000482, Epoch Ke 4000

MSE Terbaik LVQ : 0.1002246, Epoch Ke 4000

Tabel 90. Hasil Persentase Prediksi Epoch: 4000 Error: 0.001

ulan 0 1 2

P 8.79 9.04 7.37 3.2 3.36 0.12 1.16 5.26 6.97 7.34 1.58 9.28

VQ 9.02 5.69 3.46 9.02 5.68 0.12 0.44 6.5 9.01 0.63 5.67 3.72

Tabel 91. Prediksi Curah Hujan Epoch: 4000 Error: 0.001

ulan 0 1 2

P 10.49 4.48 13.6 36.111 67.05 04.51 09.87 15.09 93.15 85.09 37.12 14.96

VQ 7.18 4.6 6.84 9.34 6.73 1.09 3.2 0.52 3.65 02.78 7.47 4.91

eal 66 0 43 5 29 56 20 82 9 61 46 59


(2)

4.1 Error : 0.1

MSE Terbaik BP : 0.1000458, Epoch Ke 100

MSE Terbaik LVQ : 0.1001905, Epoch Ke 100

Tabel 92. Hasil Persentase Prediksi Epoch: 100 Error: 0.1

ulan 0 1 2

P 8.7 8.7 8.7 8.7 1.21 6.67 7.8 1.32 3.2 3.61 2 0

VQ 5.95 3.28 0.83 5.95 2.28 6.17 6.52 2.2 4.95 6.41 1.28 9.14

Tabel 93. Prediksi Curah Hujan Epoch: 100 Error: 0.1

ulan 0 1 2

P 10.37 4.19 15.15 44.13 82.79 14.26 20.13 25.79 11.13 02.32 38.08 16.51

VQ 4.93 2.08 4.55 7.31 5.44 9.25 1.57 8.63 03.08 13.12 07.29 04.48

eal 66 0 43 5 29 56 20 82 9 61 46 59

4.2 Error : 0.01

MSE Terbaik BP : 0.1000458, Epoch Ke 100

MSE Terbaik LVQ : 0.1001905, Epoch Ke 100

Tabel 94. Hasil Persentase Prediksi Epoch: 100 Error: 0.01

ulan 0 1 2

P 8.7 8.21 4.85 1.38 4.35 .95 8.01 4.15 1.38 1.28 .95 4.25

VQ 9.65 3.11 9.65 6.18 2.81 2.61 2.91 9.25 9.75 3.01 .05 2.61

Tabel 95. Prediksi Curah Hujan Epoch: 100 Error: 0.01

ulan 0 1 2

P 10.48 3.77 10.65 18.84 8.87 .88 20.45 2.59 34.7 95.91 .79 6.42 VQ 7.89 0.89 1.25 2.04 04.84 8.6 7.14 1.58 29.99 00.67 0.15 3.25

eal 66 0 43 5 29 56 20 82 9 61 46 59

4.3 0.001

MSE Terbaik BP : 0.001000112, Epoch Ke 100

MSE Terbaik LVQ : 0.0009987, Epoch Ke 100


(3)

ulan 0 1 2

P 8.79 7.37 4.04 0.69 3.99 .95 7.35 3.97 0.69 0.68 .95 3.98

VQ 9.02 2.36 9.02 5.67 2.33 2.31 2.34 8.98 9.03 2.35 .96 2.31

Tabel 97. Prediksi Curah Hujan Epoch: 100 Error: 0.001

ulan 0 1 2

P 10.49 3.06 09.71 17.83 8.15 .8 19.03 2.27 32.71 94.26 .79 5.89 VQ 7.18 0.25 0.52 1.3 04.88 8.16 6.26 1.11 27.92 98.86 9.95 2.67

eal 66 0 43 5 29 56 20 82 9 61 46 59

5. Epoch : 1000

5.1 Error : 0.1

MSE Terbaik BP : 0.01000015, Epoch Ke 1000

MSE Terbaik LVQ : 0.01000015, Epoch Ke 1000

Tabel 98. Hasil Persentase Prediksi Epoch: 1000 Error: 0.1

ulan 0 1 2

P 8.7 8.7 8.7 8.7 1.21 6.67 7.8 1.32 3.2 3.61 2 0

VQ 5.95 3.28 0.83 5.95 2.28 6.17 6.52 2.2 4.95 6.41 1.28 9.14

Tabel 99. Prediksi Curah Hujan Epoch: 1000 Error: 0.1

ulan 0 1 2

P 10.37 4.19 15.15 44.13 82.79 14.26 20.13 25.79 11.13 02.32 38.08 16.51

VQ 4.93 2.08 4.55 7.31 5.44 9.25 1.57 8.63 03.08 13.12 07.29 04.48

eal 66 0 43 5 29 56 20 82 9 61 46 59

5.2 Error : 0.01

MSE Terbaik BP : 0.01000015, Epoch Ke 1000

MSE Terbaik LVQ : 0.01000015, Epoch Ke 1000

Tabel 100. Hasil Persentase Prediksi Epoch: 1000 Error: 0.01

ulan 0 1 2


(4)

Tabel 101. Prediksi Curah Hujan Epoch: 1000 Error: 0.01

ulan 0 1 2

P 10.37 4.19 15.15 44.13 82.79 14.26 20.13 25.79 11.13 02.32 38.08 16.51

VQ 4.93 2.08 4.55 7.31 5.44 9.25 1.57 8.63 03.08 13.12 07.29 04.48

eal 66 0 43 5 29 56 20 82 9 61 46 59

5.3 Error : 0.001

MSE Terbaik BP : 0.01000015, Epoch Ke 1000

MSE Terbaik LVQ : 0.01000015, Epoch Ke 1000

Tabel 102. Hasil Persentase Prediksi Epoch: 1000 Error: 0.001

ulan 0 1 2

P 8.7 8.7 8.7 8.7 1.21 6.67 7.8 1.32 3.2 3.61 2 0

VQ 5.95 3.28 0.83 5.95 2.28 6.17 6.52 2.2 4.95 6.41 1.28 9.14

Tabel 103. Prediksi Curah Hujan Epoch: 10000 Error: 0.001

ulan 0 1 2

P 10.37 4.19 15.15 44.13 82.79 14.26 20.13 25.79 11.13 02.32 38.08 16.51

VQ 4.93 2.08 4.55 7.31 5.44 9.25 1.57 8.63 03.08 13.12 07.29 04.48

eal 66 0 43 5 29 56 20 82 9 61 46 59

6. Epoch : 10000

6.1 Error : 0.1

MSE Terbaik BP : 0.1000004, Epoch Ke 10000

MSE Terbaik LVQ : 0.09999, Epoch Ke 10000

Tabel 104. Hasil Persentase Prediksi Epoch: 10000 Error: 0.1

ulan 0 1 2

P 8.7 8.7 8.7 8.7 1.21 6.67 7.8 1.32 3.2 3.61 2 0

VQ 5.95 3.28 0.83 5.95 2.28 6.17 6.52 2.2 4.95 6.41 1.28 9.14


(5)

ulan 0 1 2

P 10.37 4.19 15.15 44.13 82.79 14.26 20.13 25.79 11.13 02.32 38.08 16.51

VQ 4.93 2.08 4.55 7.31 5.44 9.25 1.57 8.63 03.08 13.12 07.29 04.48

eal 66 0 43 5 29 56 20 82 9 61 46 59

6.2 Error : 0.01

MSE Terbaik BP : 0.01000003, Epoch Ke 10000

MSE Terbaik LVQ : 0.009999, Epoch Ke 10000

Tabel 106. Hasil Persentase Prediksi Epoch: 10000 Error: 0.01

ulan 0 1 2

P 8.7 8.7 8.7 8.7 1.21 6.67 7.8 1.32 3.2 3.61 2 0

VQ 5.95 3.28 0.83 5.95 2.28 6.17 6.52 2.2 4.95 6.41 1.28 9.14

Tabel 107. Prediksi Curah Hujan Epoch: 10000 Error: 0.01

ulan 0 1 2

P 10.37 4.19 15.15 44.13 82.79 14.26 20.13 25.79 11.13 02.32 38.08 16.51

VQ 4.93 2.08 4.55 7.31 5.44 9.25 1.57 8.63 03.08 13.12 07.29 04.48

eal 66 0 43 5 29 56 20 82 9 61 46 59

6.3 Error : 0.001

MSE Terbaik BP : 0.001000002, Epoch Ke 10000

MSE Terbaik LVQ : 0.0009999, Epoch Ke 10000

Tabel 108. Hasil Persentase Prediksi Epoch: 10000 Error: 0.001

ulan 0 1 2

P 8.79 7.37 4.04 0.69 3.99 .95 7.35 3.97 0.69 0.68 .95 3.98

VQ 9.02 2.36 9.02 5.67 2.33 2.31 2.34 8.98 9.03 2.35 .96 2.31

Tabel 109. Prediksi Curah Hujan Epoch: 10000 Error: 0.001

ulan 0 1 2

P 10.49 3.06 09.71 17.83 8.15 .8 19.03 2.27 32.71 94.26 .79 5.89 VQ 7.18 0.25 0.52 1.3 04.88 8.16 6.26 1.11 27.92 98.86 9.95 2.67


(6)