ANALISIS ALGORITMA INISIALISASI NGUYEN-WIDROW PADA PROSES PREDIKSI CURAH HUJAN KOTA MEDAN MENGGUNAKAN METODE BACKPROPAGATION NEURAL NETWORK

Seminar Nasional Informatika 2014

ANALISIS ALGORITMA INISIALISASI NGUYEN-WIDROW PADA
PROSES PREDIKSI CURAH HUJAN KOTA MEDAN
MENGGUNAKAN METODE BACKPROPAGATION NEURAL
NETWORK
Yudhi Andrian1, M. Rhifky Wayahdi2
1

Dosen Teknik Informatika, STMIK Potensi Utama
Mahasiswa Sistem Informasi, STMIK Potensi Utama
1,2
STMIK Potensi Utama, Jl. K.L. Yos Sudarso Km 6,5 No. 3A Tanjung Mulia-Medan
1
yudhi.andrian@gmail.com, 2rhifky.wayahdi@yahoo.com
2

Abstrak
Jaringan saraf tiruan (Artificial Neural Network) sebagian besar telah cukup handal dalam pemecahan
masalah, salah satunya adalah prediksi curah hujan dengan metode backpropagation. Salah satu algoritma
inisialisasi bobot yang dapat meningkatkan waktu eksekusi adalah nguyen-widrow. Pada penelitian ini

penulis akan memprediksi curah hujan di Kota Medan dengan metode backpropagation neural network
dengan memadukan algoritma inisialisasi nguyen-widrow pada proses inisialisasi bobotnya. Dari hasil
penelitian diketahui bahwa : pada proses trainning JST, semakin kecil nilai target error maka nilai iterasinya
akan semakin besar dan keakurasiannya juga semakin tinggi, pada kasus prediksi curah hujan di Kota Medan
dengan metode backpropagation neural network, proses training dengan inisialisasi bobot nguyen-widrow
tidak lebih baik dari bobot random, dan tingat keakurasian terbesar pada proses pengujian prediksi curah
hujan di Kota Medan dengan metode backpropagation neural network adalah 43.1 %, dengan target error
0.007.
Kata kunci : Prediksi curah hujan, nguyen-widrow, backpropagation, neural network
1.

Pendahuluan

Dari
aspek
meteorologis,
Indonesia
mempunyai kompleksitas dalam fenomena cuaca
dan iklim. Atmosfer di atas Indonesia sangat
kompleks dan pembentukan awannya sangat unik.

Secara latitudinal dan longitudinal, Indonesia di
bawah kekuasaan sirkulasi ekuatorial dan
monsunal
yang berbeda karakteristiknya.
Beberapa kenyataan ini menunjukkan curah hujan
di Indonesia sangat labil, kompleks, dan memiliki
variabilitas yang sangat besar. Sehingga meskipun
ketepatan prediksi sangat penting, namun saat ini
sangat sulit diprediksi secara akurat dengan
metode peramalan tradisional. Bahkan dalam
bidang klimatologi, curah hujan di Indonesia
menjadi salah satu faktor yang paling sulit
diramalkan secara akurat. Perubahan iklim akibat
pemanasan global, mengakibatkan pergantian
musim di Indonesia menjadi tidak teratur [2].
Jaringan Saraf Tiruan (Artificial Neural
Network) sebagian besar telah cukup handal
selama beberapa tahun terakhir dalam pemecahan
masalah. Jaringan saraf tiruan menyediakan
metodologi yang sangat handal dalam pemecahan

masalah non-linier. Jaringan saraf tiruan
terinspirasi oleh otak manusia di mana neuron
saling interkoneksi secara non-linier. Neuron
saling terhubung satu sama lain melalui suatu
jaringan. Jaringan ini yang dilatih menggunakan

algoritma backpropagation yang mengikuti
Gradient Descent Method [5].
Kharola, Manisha dan Dinesh Kumar (2014)
menggunakan metode backpropagation untuk
memprediksi cuaca, dan menemukan bahwa
proses pelatihan dapat dilakukan dengan cepat.
Hasilnya lebih akurat untuk memprediksi cuaca di
masa depan ketika jumlah iterasi meningkat [3].
Naik, Arti R. dan Prof. S.K.Pathan (2012)
mengusulkan sebuah metode baru prakiraan cuaca
menggunakan jaringan saraf tiruan feed-forward
dan datanya dapat dilatih dengan menggunakan
algoritma
Levenberg

Marquardt
untuk
memprediksi cuaca masa depan. Di antara
beberapa
algoritma
backpropagation,
backpropagation levenberg adalah yang tercepat
[5].
Mishra, Khushboo, et al. (2014) dalam
penelitiannya tentang kompresi citra mengatakan
bahwa dalam nguyen-widrow semua bobot dalam
jaringan disesuaikan dengan cara yang identik,
sehingga mencegah dan mengurangi kesalahan
fungsi. Bobot biasanya diinisialisasi dengan nilai
kecil yang acak. Hasil menunjukkan bahwa
algoritma yang digunakan (nguyen-widrow) dapat
meningkatkan waktu eksekusi [4].
Metode backpropagation yang telah
dijelaskan di atas dapat diterapkan dalam
memprediksi suatu keadaan yang akan datang.

Sedangkan inisialisasi nguyen-widrow dapat
meningkatkan waktu eksekusi. Pada penelitian ini

57

Seminar Nasional Informatika 2014

penulis akan memprediksi curah hujan di Kota
Medan dengan metode backpropagation neural
network dengan memadukan algoritma inisialisasi
nguyen-widrow pada proses inisialisasi bobotnya.
Penulis akan menggunakan data curah hujan
tahun 1997 – 2012. Tujuannya adalah untuk
mengetahui apakah algoritma inisialisasi nguyenwidrow dapat mengurangi waktu pelatihan.
2.

Algoritma Nguyen-Widrow

Nguyen-Widrow adalah sebuah algoritma
yang digunakan untuk inisialisasi bobot pada

jaringan saraf tiruan untuk mengurangi waktu
pelatihan. Algoritma inisialisasi nguyen-widrow
adalah sebagai berikut [4]:
a. Set:
n = jumlah unit input
p = jumlah unit tersembunyi
β = faktor skala = 0.7(p)1/n = 0.7
b. Untuk setiap unit tersembunyi (j=1,…,p),
lakukan tahap (c) – (f)
c. Untuk i=1,…,n (semua unit input), vij(old)=
bilangan acak antara -0.5 dan 0.5
d. Hitung nilai ||vj(old)||
e. Inisialisasi ulang bobot-bobot dari unit input
(i=1,…,n)
f. Bias yang dipakai sebagai inisialisasi:
voj = bilangan acak antara –β dan β.
3.

Neural Network


Neural Network / Jaringan Saraf Tiruan
(JST) adalah paradigma pengolahan informasi
yang terinspirasi oleh sistem saraf secara biologis,
seperti proses informasi pada otak manusia.
Elemen kunci dari paradigma ini adalah struktur
dari sistem pengolahan informasi yang terdiri dari
sejumlah besar elemen pemrosesan yang saling
berhubungan (neuron), bekerja serentak untuk
menyelesaikan masalah tertentu.
Cara kerja JST seperti cara kerja manusia,
yaitu belajar melalui contoh. Lapisan-lapisan
penyusun JST dibagi menjadi 3, yaitu lapisan
input (input layer), lapisan tersembunyi (hidden
layer), dan lapisan output (ouput layer) [7].
4.

Metode Backpropagation

Salah satu algoritma JST adalah propagasi
balik (backpropagation) yaitu JST multi layer

yang mengubah bobot dengan cara mundur dari
lapisan keluaran ke lapisan masukan. Tujuannya
untuk melatih jaringan agar mendapatkan
keseimbangan kemampuan untuk mengenali pola
yang digunakan selama pelatihan serta
kemampuan jaringan untuk memberikan respon
yang benar terhadap pola masukan dengan pola
yang dipakai selama pelatihan [1].

Arsitektur backpropagation merupakan
salah satu arsitektur jaringan saraf tiruan yang
dapat digunakan untuk mempelajari dan
menganalisis pola data masa lalu lebih tepat
sehingga diperoleh keluaran yang lebih akurat
(dengan kesalahan atau error minimum) [6].
Langkah-langkah
dalam
membangun
algoritma backpropagation adalah sebagai berikut
[7]:

a. Inisialisasi bobot (ambil nilai random yang
cukup kecil).
b. Tahap
perambatan
maju
(forward
propagation)
1) Setiap unit input (X1, i=1,2,3,…,n)
menerima sinyal xi dan meneruskan sinyal
tersebut ke semua unit pada lapisan
tersembunyi.
2) Setiap unit tersembunyi (Z1, j=1,2,3,…,p)
menjumlahkan bobot sinyal input,
ditunjukkan dengan persamaan (1).
(1)
Dan menerapkan fungsi aktivasi untuk
menghitung sinyal output-nya, ditunjukkan
dengan persamaan (2).
(2)
Fungsi aktivasi yang digunakan adalah

fungsi sigmoid, kemudian mengirimkan
sinyal tersebut ke semua unit output.
3) Setiap unit output (Yk, k=1,2,3,…,m)
menjumlahkan bobot sinyal input,
ditunjukkan dengan persamaan (3).
(3)
Dan menerapkan fungsi aktivasi untuk
menghitung sinyal output-nya, ditunjukkan
dengan persamaan (4).
(4)
c. Tahap perambatan balik (backpropagation)
1) Setiap unit output (Yk, k=1,2,3,…,m)
menerima pola target yang sesuai dengan
pola input pelatihan, kemudian hitung
error, ditunjukkan dengan persamaan (5).
(5)
f’ adalah turunan dari fungsi aktivasi.
Kemudian
hitung
korelasi

bobot,
ditunjukkan dengan persamaan (6).
(6)
Dan menghitung koreksi bias, ditunjukkan
dengan persamaan (7).
(7)
Sekaligus mengirimkan δk ke unit-unit
yang ada di lapisan paling kanan.
2) Setiap unit tersembunyi (Zj, j=1,2,3,…,p)
menjumlahkan delta input-nya (dari unitunit yang berada pada lapisan di
(8)

58

Seminar Nasional Informatika 2014

kanannya), ditunjukkan dengan persamaan
(8).

Untuk menghitung informasi error,
kalikan nilai ini dengan turunan dari fungsi
aktivasinya,
ditunjukkan
dengan
persamaan (9).
(9)
Kemudian
hitung
koreksi
bobot,
ditunjukkan dengan persamaan (10).
(10)
Setelah itu, hitung juga koreksi bias,
ditunjukkan dengan persamaan (11).
(11)
d. Tahap perubahan bobot dan bias
1) Setiap unit output (Yk, k=1,2,3,…,m)
dilakukan perubahan bobot dan bias
(j=0,1,2,…,p),
ditunjukkan
dengan
persamaan (12).
(12)
Setiap unit tersembunyi (Zj, j=1,2,3,…,p)
dilakukan perubahan bobot dan bias
(i=0,1,2,…,n),
ditunjukkan
dengan
persamaan (13).
(13)
2) Tes kondisi berhenti.
5.

banyaknya layar tersembunyi (hidden layer)
yang digunakan, dan banyaknya keluaran
yang diinginkan. Data yang digunakan sebagai
masukan sebanyak 8 data (8 tahun) dan data
keluaran atau target adalah data pada tahun
ke-9 (data input 1997 – 2004 dengan target
2005). Untuk mengetahui curah hujan pada
tahun ke-10 maka data masukannya
merupakan data pada tahun ke-2 sampai tahun
ke-9 (data input 1998 – 2005 dengan target
2006), demikian seterusnya. Gambar 1
menggambarkan desain jaringan saraf tiruan
backpropagation dengan input layer(xi)=8,
hidden layer(vi)=6, dan output layer(yi)=1.
Input Layer

Hidden Layer

Output Layer

x1

x2

v1

x3

v2

x4

v3
y1

x5

v4

x6

v5

x7

v6

Metode Penelitian

Penelitian ini bertujuan untuk menganalisa
inisialisasi algoritma nguyen-widrow pada proses
prediksi curah hujan di Kota Medan dengan
jaringan saraf tiruan metode backpropagation.
Penulis ingin mengetahui apakah ada perbedaan
antara inisialisasi bobot menggunakan algoritma
nguyen-widrow dengan inisialisasi bobot secara
random. Apakah pengenalan pola/pelatihan
dengan
algoritma
nguyen-widrow
dapat
mengurangi waktu pelatihan.
Untuk mencapai tujuan tersebut, penulis
akan
melakukan
perbandingan
dengan
menggunakan data sekunder curah hujan bulanan
Kota Medan tahun 1997 – 2012. Data bersumber
dari BMKG Stasiun Polonia, Kota Medan.
Prediksi
curah
hujan
dengan
backpropagation neural network digunakan
langkah-langkah sebagai berikut:
a. Memisahkan data yang akan digunakan
sebagai data pelatihan dan data uji. Data curah
hujan tahun 1997 – 2008 akan digunakan
sebagai data pelatihan selama perancangan
JST sedangkan data tahun 2009 – 2012
digunakan sebagi data pengujian.
b. Desain JST
Desain JST dilakukan untuk prediksi curah
hujan bulanan dimulai dengan menentukan
banyaknya data masukan yang digunakan,

x8

Gambar 1. Desain backpropagation neural
network
c. Pengenalan pola (pelatihan)
Pengenalan pola dilakukan dengan cara
penyesuaian nilai bobot (dalam penelitian ini
nilai bobot ditentukan secara random dan
menggunakan algoritma nguyen-widrow).
Penghentian penyesuaian bobot dalam
pengenalan pola apabila kuadrat error
mencapai target error. Error dihitung setelah
tahapan forward propagation. Apabila error
lebih besar dari target error maka pelatihan
akan dilanjutkan ke tahap backward
propagation sampai error mencapai atau lebih
kecil target error.
d. Pengujian dan prediksi
Pengujian
dilakukan
bertujuan
untuk
mengetahui tingkat keakuratan sistem JST

59

Seminar Nasional Informatika 2014

yang telah dibuat dalam memprediksi data
curah hujan pada tahun tertentu. Sedangkan
prediksi bertujuan untuk memprediksi data
curah hujan yang akan datang.
6.

Hasil dan Analisa

Prediksi curah hujan menggunakan metode
backpropagation neural network dilakukan
dengan membagi data menjadi tiga bagian, yaitu
: data untuk training/ pelatihan, data untuk
testing/ pengujian, dan data untuk prediksi. Data
yang digunakan adalah data curah hujan Kota
Medan tahun 1997 – 2012 (dapat dilihat di
Lampiran Tabel 1). Di mana data tahun 1997 –
2008 digunakan sebagai pelatihan, data tahun
2009 – 2012 digunakan sebagai pengujian, dan
tahun 2013 – 2017 data yang akan diprediksi.
Pembagian data untuk pelatihan dapat dilihat pada
Tabel 2.
Tabel 2(a). Data input tahun 1997 – 2004
dengan target tahun 2005
1997
106.2
96.6
134.4
109.8
80.9
175.3
225.8
95.7
290.6
391.1
265.4
182.4

1998
181
50.2
29.4
35.3
133.5
144.6
213
381
170.8
340.3
275.8
394.2

1999
315
268.8
196.9
322
302.6
256.2
29.9
78.6
407.2
204.1
126.4
456.3

2000
59
86.7
182.2
115
60.3
191.1
121.9
342.6
451.1
367.5
108
173.6

2001
216.5
15.1
158
164.8
252.8
306.7
121.3
417.6
395.7
733
467.6
342.5

2002
90.8
78.5
96.5
73.4
195.2
191.7
139.2
156.3
382.5
363.8
164.3
102.2

2003
169.4
85.7
162.6
285.3
245.7
196.3
312.1
282
561.5
471.9
125.4
187.7

2004
138.8
200.8
237.9
88.5
68
200.5
206.8
204.3
475.3
377.5
141.2
166.4

2005
189.1
43.9
62.5
168.2
229.5
174
210.8
145.7
290.5
175.5
206.4
311.4

Tabel 2(b). Data input tahun 1998 – 2005
dengan target tahun 2006
1998
181
50.2
29.4
35.3
133.5
144.6
213
381
170.8
340.3
275.8
394.2

1999
315
268.8
196.9
322
302.6
256.2
29.9
78.6
407.2
204.1
126.4
456.3

2000
59
86.7
182.2
115
60.3
191.1
121.9
342.6
451.1
367.5
108
173.6

2001
216.5
15.1
158
164.8
252.8
306.7
121.3
417.6
395.7
733
467.6
342.5

2002
90.8
78.5
96.5
73.4
195.2
191.7
139.2
156.3
382.5
363.8
164.3
102.2

2003
169.4
85.7
162.6
285.3
245.7
196.3
312.1
282
561.5
471.9
125.4
187.7

2004
138.8
200.8
237.9
88.5
68
200.5
206.8
204.3
475.3
377.5
141.2
166.4

2005
189.1
43.9
62.5
168.2
229.5
174
210.8
145.7
290.5
175.5
206.4
311.4

2006
103.9
130.5
121.2
222.5
300.5
251.4
109.1
148.3
385.6
271.4
148.4
346.6

Tabel 2(c). Data input tahun 1999 – 2006
dengan target tahun 2007
1999
315
268.8
196.9
322
302.6
256.2
29.9
78.6
407.2
204.1
126.4
456.3

2000
59
86.7
182.2
115
60.3
191.1
121.9
342.6
451.1
367.5
108
173.6

2001
216.5
15.1
158
164.8
252.8
306.7
121.3
417.6
395.7
733
467.6
342.5

2002
90.8
78.5
96.5
73.4
195.2
191.7
139.2
156.3
382.5
363.8
164.3
102.2

2003
169.4
85.7
162.6
285.3
245.7
196.3
312.1
282
561.5
471.9
125.4
187.7

2004
138.8
200.8
237.9
88.5
68
200.5
206.8
204.3
475.3
377.5
141.2
166.4

2005
189.1
43.9
62.5
168.2
229.5
174
210.8
145.7
290.5
175.5
206.4
311.4

2006
103.9
130.5
121.2
222.5
300.5
251.4
109.1
148.3
385.6
271.4
148.4
346.6

2007
169.6
8.6
62.3
277.2
330.2
99.4
261.6
153.4
256.5
303.3
374.1
218.4

2000
59
86.7
182.2
115
60.3

2001
216.5
15.1
158
164.8
252.8

2002
90.8
78.5
96.5
73.4
195.2

2003
169.4
85.7
162.6
285.3
245.7

2004
138.8
200.8
237.9
88.5
68

2005
189.1
43.9
62.5
168.2
229.5

2006
103.9
130.5
121.2
222.5
300.5

2007
169.6
8.6
62.3
277.2
330.2

2008
126.7
16.2
126.8
146
172.5

Tabel 2(d). Data input tahun 2000 – 2007
dengan target tahun 2008

60

191.1
121.9
342.6
451.1
367.5
108
173.6

306.7
121.3
417.6
395.7
733
467.6
342.5

191.7
139.2
156.3
382.5
363.8
164.3
102.2

196.3
312.1
282
561.5
471.9
125.4
187.7

200.5
206.8
204.3
475.3
377.5
141.2
166.4

174
210.8
145.7
290.5
175.5
206.4
311.4

251.4
109.1
148.3
385.6
271.4
148.4
346.6

99.4
261.6
153.4
256.5
303.3
374.1
218.4

62
276.8
195.7
294.8
342.2
412.5
245.7

Sebelum diproses data dinormalisasi terlebih
dahulu. Normalisasi terhadap data dilakukan agar
keluaran jaringan sesuai dengan fungsi aktivasi
yang digunakan. Data-data tersebut dinormalisasi
dalam interval [0, 1] karena dalam prediksi curah
hujan, nilai curah hujan pasti bernilai positif atau
0. Selain itu juga terkait fungsi aktivasi yang
diberikan yaitu sigmoid biner.
Fungsi sigmoid adalah fungsi asimtotik
(tidak pernah mencapai 0 ataupun 1) maka
transformasi data dilakukan pada interval yang
lebih kecil yaitu [0.1, 0.8], ditunjukkan dengan
persamaan (14).
(14)
a adalah data minimum, b adalah data maksimum,
x adalah data yang akan dinormalisasi, dan x’
adalah data yang telah ditransformasi. Sehingga
dihasilkan data hasil
normalisasi
yang
ditunjukkan pada Tabel 3.
Tabel 3(a). Data hasil normalisasi tahun 1997
– 2004 dengan target tahun 2005
1997
0.208
0.197
0.239
0.212
0.18
0.284
0.34
0.196
0.411
0.522
0.384
0.292

1998
0.29
0.146
0.123
0.129
0.238
0.25
0.326
0.511
0.279
0.466
0.395
0.526

1999
0.438
0.387
0.308
0.446
0.425
0.373
0.124
0.177
0.54
0.316
0.23
0.594

2000
0.156
0.186
0.292
0.218
0.157
0.302
0.225
0.469
0.589
0.496
0.21
0.282

2001
0.33
0.107
0.265
0.273
0.37
0.429
0.224
0.552
0.527
0.9
0.607
0.469

2002
0.191
0.177
0.197
0.172
0.306
0.302
0.244
0.263
0.513
0.492
0.272
0.203

2003
0.278
0.185
0.27
0.406
0.362
0.307
0.435
0.402
0.711
0.12
0.229
0.298

2004
0.244
0.312
0.353
0.188
0.166
0.312
0.319
0.316
0.615
0.507
0.246
0.274

2005
0.299
0.139
0.16
0.276
0.344
0.283
0.323
0.251
0.411
0.284
0.318
0.434

Tabel 3(b). Data hasil normalisasi tahun 1998 –
2005 dengan target tahun 2006
1998
0.29
0.146
0.123
0.129
0.238
0.25
0.326
0.511
0.279
0.466
0.395
0.526

1999
0.438
0.387
0.308
0.446
0.425
0.373
0.124
0.177
0.54
0.316
0.23
0.594

2000
0.156
0.186
0.292
0.218
0.157
0.302
0.225
0.469
0.589
0.496
0.21
0.282

2001
0.33
0.107
0.265
0.273
0.37
0.429
0.224
0.552
0.527
0.9
0.607
0.469

2002
0.191
0.177
0.197
0.172
0.306
0.302
0.244
0.263
0.513
0.492
0.272
0.203

2003
0.278
0.185
0.27
0.406
0.362
0.307
0.435
0.402
0.711
0.12
0.229
0.298

2004
0.244
0.312
0.353
0.188
0.166
0.312
0.319
0.316
0.615
0.507
0.246
0.274

2005
0.299
0.139
0.16
0.276
0.344
0.283
0.323
0.251
0.411
0.284
0.318
0.434

2006
0.205
0.235
0.224
0.336
0.422
0.368
0.211
0.254
0.516
0.39
0.254
0.473

Tabel 3(c). Data hasil normalisasi tahun 1999
– 2006 dengan target tahun 2007
1999
0.438
0.387
0.308
0.446
0.425
0.373
0.124
0.177
0.54
0.316
0.23
0.594

2000
0.156
0.186
0.292
0.218
0.157
0.302
0.225
0.469
0.589
0.496
0.21
0.282

2001
0.33
0.107
0.265
0.273
0.37
0.429
0.224
0.552
0.527
0.9
0.607
0.469

2002
0.191
0.177
0.197
0.172
0.306
0.302
0.244
0.263
0.513
0.492
0.272
0.203

2003
0.278
0.185
0.27
0.406
0.362
0.307
0.435
0.402
0.711
0.12
0.229
0.298

2004
0.244
0.312
0.353
0.188
0.166
0.312
0.319
0.316
0.615
0.507
0.246
0.274

2005
0.299
0.139
0.16
0.276
0.344
0.283
0.323
0.251
0.411
0.284
0.318
0.434

2006
0.205
0.235
0.224
0.336
0.422
0.368
0.211
0.254
0.516
0.39
0.254
0.473

2007
0.278
0.1
0.159
0.397
0.455
0.2
0.379
0.26
0.374
0.425
0.504
0.332

Seminar Nasional Informatika 2014
Tabel 3(d). Data hasil normalisasi tahun 2000 –
2007 dengan target tahun 2008
2000
0.156
0.186
0.292
0.218
0.157
0.302
0.225
0.469
0.589
0.496
0.21
0.282

2001
0.33
0.107
0.265
0.273
0.37
0.429
0.224
0.552
0.527
0.9
0.607
0.469

2002
0.191
0.177
0.197
0.172
0.306
0.302
0.244
0.263
0.513
0.492
0.272
0.203

2003
0.278
0.185
0.27
0.406
0.362
0.307
0.435
0.402
0.711
0.12
0.229
0.298

2004
0.244
0.312
0.353
0.188
0.166
0.312
0.319
0.316
0.615
0.507
0.246
0.274

2005
0.299
0.139
0.16
0.276
0.344
0.283
0.323
0.251
0.411
0.284
0.318
0.434

2006
0.205
0.235
0.224
0.336
0.422
0.368
0.211
0.254
0.516
0.39
0.254
0.473

2007
0.278
0.1
0.159
0.397
0.455
0.2
0.379
0.26
0.374
0.425
0.504
0.332

2008
0.23
0.108
0.231
0.252
0.281
0.159
0.396
0.307
0.416
0.468
0.546
0.362

Setelah proses normalisasi dilakukan,
selanjutnya dilakukan proses inisialisasi bobot.
Proses inisialisasi bobot dikelompokkan menjadi
dua bagian, yaitu inisialisasi bobot random dan
inisialisasi bobot menggunakan algoritma nguyenwidrow.
Langkah pertama akan dilakukan uji coba
dengan menggunakan bobot yang digenerate
secara random dengan hidden layer=6. Bobot
random yang telah digenerate dapat dilihat pada
Tabel 4.
Tabel 4. Generate bobot random
Bobot input ke hidden awal
0.3528
0.2667
0.2898
0.007
0.3804
0.4072
0.4313
0.3952
0.1868
0.4748
0.182
0.2624
0.2344
0.1491
0.3113
0.4149
0.4123
0.2946
0.3476
0.49
0.122
0.3381
0.0079
0.2876
Bias input ke hidden
0.1422
0.0228
0.1479
Bobot hidden ke output
0.4899
0.2007
0.1391
Bias hidden ke output

0.1448
0.3545
0.481
0.3836
0.3239
0.493
0.2669
0.05

0.151
0.0227
0.4357
0.0268
0.1319
0.4555
0.0532
0.0515

0.3874
0.207
0.0281
0.2962
0.1397
0.1134
0.4997
0.3394

0.191

0.1505

0.4743

0.0802

0.0814

0.3233
0.367

Proses training dengan menggunakan bobot
random pada tabel 4 menghasilkan kuadrat
error=0.01 pada iterasi ke-66. Penurunan kuadrat
error dapat dilihat pada Gambar 2.

0.378
0.3781
0.2884
0.4162
0.1741
0.2884
0.2054
0.1427
0.3421
0.3637
0.3945
0.3238
0.3047
0.4689
0.1341
0.2963
0.0076
0.3161
Bias input ke hidden
0.1422
0.0228
0.1479
Bobot hidden ke output
0.4899
0.2007
0.1391
Bias hidden ke output

Tabel 5. Inisialisasi bobot nguyen-widrow
Bobot input ke hidden awal
0.3092
0.2552
0.3185
0.0061
0.364
0.4475

0.1303
0.319

0.1984
0.0298

0.399
0.2132

0.0352
0.0352
0.1733
0.5985
0.0699
0.0677

0.305
0.305
0.1439
0.1168
0.5146
0.4113

0.191

0.1505

0.4743

0.0802

0.0814

0.3233
0.367

Proses training dengan menggunakan bobot
nguyen-widrow pada tabel 5 menghasilkan
kuadrat error=0.01 pada iterasi ke-74. Penurunan
kuadrat error dapat dilihat pada Gambar 3.

Gambar 3. Penurunan kuadrat error iterasi
ke-74
Pada pengujian awal ini didapatkan hasil
bahwa jumlah iterasi pada proses tranning dengan
menggunakan bobot random lebih cepat
dibandingkan dengan penggunaan bobot nguyenwidrow. Selanjutnya dilakukan bebepara kali
proses trainning dan pengujian/testing dengan
menggunakan bobot random dan bobot nguyenwidrow, dimana jumlah hidden layer tetap yaitu 6
dan nilai target error yang bervariasi. Hasil dari
pengujian ini dapat dilihat pada tabel 6.
Tabel 6. Perbandingan hasil pengujian bobot
random dengan bobot nguyen-widrow
Target
error
0.09
0.06
0.03
0.01
0.009
0.008
0.007
Ratarata

Gambar 2. Penurunan kuadrat error dari
training dengan menggunakan bobot random
Selanjutnya sebagai perbandingan dilakukan
uji coba dengan menggunakan bobot nguyenwidrow dengan hidden layer=6. Bobot yang
dihasilkan dari algoritma inisialisasi nguyenwidrow ditunjukkan pada Tabel 5.

0.3452
0.3452
0.2915
0.4437
0.2402
0.045

Bobot random
Iterasi
Keakurasian
2
3.12 %
2
3.12 %
3
3.37 %
66
25 %
87
33.08 %
186
41.65 %
4691
42.75 %

Bobot nguyen-widrow
Iterasi
keakurasian
2
2.96 %
2
2.96 %
3
3.33 %
74
24.9 %
96
33.06 %
194
41.92 %
5155
43.1 %

719.57

789.43

21.73 %

21.75 %

Dari hasil pengujian pada tabel 6 didapatkan
bahwa pada inisialisasi bobot random jumlah
iterasi paling kecil ada pada target error 0.09 dan
0.06 dengan jumlah iterasi=2 dengan tingkat
keakurasian=3.12% dan jumlah iterasi paling
besar ada pada target error 0.007 dengan jumlah
iterasi=4691
dengan
tingkat
keakurasian=42.75%. Sedangkan pada inisialisasi
bobot nguyen-widrow jumlah iterasi paling kecil
sama seperti inisialisasi bobot random yaitu
iterasi
ke-2
namun
dengan
tingkat
keakurasian=2.96% dan jumlah iterasi paling

61

Seminar Nasional Informatika 2014

besar ada pada target error 0.007 dengan tingkat
keakurasian=43.1%. Ini berarti semakin kecil
nilai target error maka nilai iterasinya akan
semakin besar dan keakurasiannya juga semakin
tinggi.
Dari hasil pengujian pada tabel 6 juga dapat
dilihat bahwa proses training dengan bobot
nguyen-widrow lebih lama dibandingkan dengan
bobot random. Hal ini berarti bahwa pada kasus
prediksi curah hujan di Kota Medan dengan
metode backpropagation neural network, proses
training dengan inisialisasi bobot nguyen-widrow
tidak lebih baik dari bobot random.
Proses terakhir yaitu melakukan prediksi
curah hujan untuk beberapa tahun berikutnya
dengan mengambil nilai bobot hasil inisialisasi
nguyen-widrow dengan keakurasian 43.1 %. Hasil
prediksi dapat dilihat pada Tabel 7.

baik dari bobot random, hal ini dapat dilihat
dari proses training dengan bobot nguyenwidrow lebih lama dibandingkan proses
training dengan bobot random.
c. Tingat keakurasian terbesar pada proses
pengujian prediksi curah hujan di Kota Medan
dengan metode backpropagation neural
network adalah 43.1 %, dengan target error
0.007.
Daftar Pustaka:
[1]

[2]

Tabel 7. Hasil prediksi curah hujan 2013-2017
Tahun
Bulan

2013

2014

2015

2016

2017

1
2
3
4
5
6
7
8
9
10
11
12
Rata-rata

116
107.9
149.9
214.2
314.2
133.7
189.3
150.1
258.1
293.5
248.5
241
201.367

136.4
89.6
134.4
196
285.6
104.1
230
154
229.9
268.8
298.7
197.6
193.758

147.5
101
173.8
160.5
232.2
112.3
198
197
245.5
250.1
233.3
159
184.183

165.6
108.8
203
153.6
238.2
129.3
175.6
252.2
210.4
219.9
175.7
122
179.525

150.3
102.4
178.1
137
174
139.5
169.9
255.7
162
218
199
154.4
170.025

Dari tabel 7 hasil prediksi curah hujan tahun
2013-2017, diperkirakan bahwa curah hujan ratarata pertahun akan semakin turun dari tahun 2013
sampai tahun 2017. Tahun 2013 rata-rata curah
hujan adalah 201.367, sedangkan pada tahun 2017
rata-rata curah hujan adalah 170.025.
7.

[4]

[5]

Kesimpulan

Dari hasil penelitian dapat diambil beberapa
kesimpulan antara lain:
a. Pada proses trainning JST, semakin kecil nilai
target error maka nilai iterasinya akan
semakin besar dan keakurasiannya juga
semakin tinggi
b. Pada kasus prediksi curah hujan di Kota
Medan dengan metode backpropagation
neural network, proses training dengan
inisialisasi bobot nguyen-widrow tidak lebih

62

[3]

[6]

[7]

Ihwan, Andi, 2013, Metode Jaringan Saraf
Tiruan Propagasi Balik untuk Estimasi Curah
Hujan Bulanan di Ketapang Kalimantan
Barat,
Prosiding
Semirata
FMIPA
Universitas Lampung.
Indrabayu, et al., 2011, Prediksi Curah Hujan
di Wilayah Makasar Menggunakan Metode
Wavelet-Neural Network, Jurnal Ilmiah
“Elektrikal Enjiniring” UNHAS, Vol. 09, No.
02, Agustus.
Kharola, Manisha and Dinesh Kumar, 2014,
Efficient Weather Prediction By BackPropagation Algorithm, IOSR Journal of
Computer Engineering (IOSR-JCE), Volume
16, Issue 3, Ver. IV, June.
Mishra, Khushboo, et al, 2014, Image
Compression Using Multilayer Feed Forward
Artificial Neural Network with Nguyen
Widrow Weight Initialization Method,
International
Journal
of
Emerging
Technology and Advanced Engineering,
Volume 4, Issue 4, April.
Naik, Arti R. and S.K.Pathan, 2012, Weather
Classification and Forecasting using Back
Propagation Feed-forward Neural Network,
International Journal of Scientific and
Research Publications, Volume 2, Issue 12,
December.
Oktaviani, Cici dan Afdal, 2013, Prediksi
Curah Hujan Bulanan Menggunakan
Jaringan Syaraf Tiruan dengan Beberapa
Fungsi Pelatihan Backpropagation, Jurnal
Fisika Unand, Vol. 2, No. 4, Oktober.
Sutojo, T., et al, 2010, Kecerdasan Buatan,
Yogyakarta: Andi Offset.

Lampiran:
Data curah hujan Kota Medan tahun 1997 – 2012

Seminar Nasional Informatika 2014

Tabel 1. Data curah hujan Kota Medan tahun 1997 – 2012
Bln

1997

1998

1999

2000

2001

2002

2003

2004

2005

2006

2007

2008

2009

2010

2011

2012

1
2
3
4
5
6
7
8
9
10
11

106.2
96.6
134.4
109.8
80.9
175.3
225.8
95.7
290.6
391.1
265.4

181
50.2
29.4
35.3
133.5
144.6
213
381
170.8
340.3
275.8

315
268.8
196.9
322
302.6
256.2
29.9
78.6
407.2
204.1
126.4

59
86.7
182.2
115
60.3
191.1
121.9
342.6
451.1
367.5
108

216.5
15.1
158
164.8
252.8
306.7
121.3
417.6
395.7
733
467.6

90.8
78.5
96.5
73.4
195.2
191.7
139.2
156.3
382.5
363.8
164.3

169.4
85.7
162.6
285.3
245.7
196.3
312.1
282
561.5
471.9
125.4

138.8
200.8
237.9
88.5
68
200.5
206.8
204.3
475.3
377.5
141.2

189.1
43.9
62.5
168.2
229.5
174
210.8
145.7
290.5
175.5
206.4

103.9
130.5
121.2
222.5
300.5
251.4
109.1
148.3
385.6
271.4
148.4

169.6
8.6
62.3
277.2
330.2
99.4
261.6
153.4
256.5
303.3
374.1

126.7
16.2
126.8
146
172.5
62
276.8
195.7
294.8
342.2
412.5

196
95.4
342.6
223.8
466.7
77.7
191.5
306
386
340.2
130.6

166.1
30.2
142.8
65.4
129
156.4
219.5
382.3
89.4
161.3
246.4

155.9
81.1
289.2
215.1
217.3
128
138.5
283.3
262.7
417.7
232.9

62
93
202
206
515
57
279
160
242
339
300

12

182.4

394.2

456.3

173.6

342.5

102.2

187.7

166.4

311.4

346.6

218.4

245.7

46.1

159.2

169.3

270

63