Penentuan Durasi Nyala Lampu Lalu Lintas Berdasarkan Panjang Antrian Kendaraan Menggunakan Metode Backpropagation
Vol. 2, No. 9, September 2018, hlm. 2948-2956 http://j-ptiik.ub.ac.id
Penentuan Durasi Nyala Lampu Lalu Lintas Berdasarkan Panjang Antrian
Kendaraan Menggunakan Metode Backpropagation
1 2 3 Shibron Arby Azizy , Imam Cholissodin , Edy SantosoProgram Studi Teknik Informatika, Fakultas Ilmu Komputer, Universitas Brawijaya 1 2 3 Email: shibronazizy@student.ub.ac.id, imamcs@ub.ac.id, edy144@ub.ac.id
Abstrak
Lalu lintas merupakan salah satu lokasi dimana orang-orang menghabiskan waktunya. Saat ini dengan pertumbuhan kendaraan yang semakin pesat membuat kondisi lalu lintas di Indonesia semakin padat setiap harinya. Salah satu cara untuk menguraikan kepadatan lalu lintas adalah dengan adanya lampu lalu lintas. Namun, kinerja lampu lalu lintas saat ini dirasa kurang optimal dikarenakan penentuan durasi waktu lalu lintas yang masih statis berdasarkan waktu tertentu. Maka dari itu dibutuhkan suatu sistem yang dapat menentukan waktu, sehingga waktu pada lampu lalu lintas dapat lebih dinamis berdasarkan kondisi lalu lintas. Penelitian ini mengunakan metode backpropagation untuk menentukan durasi nyala lampu lalu lintas berdasarkan panjang antrian kendaraan. Hasil dari pengujian data latih didapatkah bahwa fungsi aktivasi yang cocok adalah fungsi Linear dengan a = 3, iterasi yang optimal didapatkan ketika iterasi 10, jumlah node pada hidden layer yang optimal adalah 2, dan nilai learning rate yang optimal adalah 0,02. Hasil evaluasi yang diperoleh ketika memproses data uji menggunakan fungsi aktivasi, jumlah iterasi, jumlah node pada hidden layer, dan nilai learning rate yang optimal menghasilkan nilai RMSE sebesar 0,0888978841028.
Kata kunci: lalu lintas, lampu lalu lintas, penentuan, backpropagation, RMSE
Abstract
Traffic is one location where people spend a lot of time. Currently with the rapid growth of vehicles
makes conditions in Indonesia is getting crowded every day. One way to solve this problem is with traffic
lights. However, the current traffic light performance is considered less than optimal. Therefore
required a system that can determine the time, so the time at the traffic light can be more dynamic based
on traffic conditions. This research uses backpropagation method to determine the duration of traffic
lights based on queue lenght of vehicle. The result of the trained data test obtained is the Linear function
with a = 3, the optimal iteration obtained at iteration 10, the optimal number of nodes in the hidden
layer is 2, and the optimal value of learning rate is 0,02. The evaluation result when processing the test
data using the optimal activation function, the optimal number of iterations, the optimal number of nodes
in the hidden layer, and the optimal learning rate yields RMSE value of 0,0888978841028.Keywords: tarffic, traffic light, determining, backpropagation, RMSE.
kemacetan. Kondisi ini disebabkan dengan tidak 1. seimbangnya antara pertumbuhan panjang jalan
PENDAHULUAN
dan pertumbuhan jumlah kendaraan di Lalu lintas adalah hal penting dalam
Indonesia. Menurut data yang diperoleh dari kehidupan bermasyarakat. Lalu lintas dan Badan Pusat Statistik (BPS), jumlah kendaraan kendaraan umum merupakan salah satu kunci pada tahun 2012 mencapai 94.373.324. pertumbuhan ekonomi. Tetapi lalu lintas
Sedangkan pada tahun 2013, jumlah kendaraan memiliki banyak permasalahan yang terjadi, mencapai 104.118.969 atau meningkat sekitar mulai dari permasalahan yang biasa saja seperti 10%. Bandingkan dengan jalan pada tahun 2012 jalanan rusak sampai masalah besar seperti yang memiliki panjang total 501.969 KM dan kecelakaan yang menyebabkan korban jiwa. Di pada tahun 2013 hanya meningkat sekitar
Indonesia, lalu lintas memiliki permasalahan 0.012% menjadi 508.000 KM. Ini membuktikan lama yang masih belum terselesaikan, yaitu bahwa setiap harinya, arus lalu lintas di
Fakultas Ilmu Komputer Universitas Brawijaya
2948
Proses feedforward memiliki beberapa
) + 0.1 (1)
Backpropagation , dan Weight Updating.
y = fungsi untuk mengaktivasi nilai x Backpropagation memiliki 3 proses utama, yaitu proses Feedforward ,
= hasil perhitungan sinyal
(3) Keterangan : x
= 0, < 0
(2)
= (0, ) , ≥ 0
Fungsi aktivasi digunakan untuk mengaktifkan node berdasarkan hasil perhitungan sinyal-sinyal input. Fungsi aktivasi yang digunakan adalah fungsi ReLU . Rumus fungsi aktivasi :
= nilai minimum max value = nilai maksimum
Keterangan : x = data x’ = data hasil normalisasi min value
− −
Indonesia semakin padat. Salah satu cara untuk mengurai kepadatan lalu lintas adalah dengan adanya lampu lalu lintas. Namun dalam beberapa kondisi, lampu lalu lintas kurang efisien untuk menangani masalah tersebut.
= (0.8 ×
′
Proses pertama sebelum masuk ke algoritme backpropagation adalah proses normalisasi. Proses ini digunakan untuk menyetarakan range nilai pada setiap fitur menjadi antara 0 sampai dengan 1. Proses normalisasi penting dilakukan agar salah satu fitur yang memiliki tipe nilai yang tinggi tidak menjadi dominan dan juga sebaliknya. Rumus normalisasi dapat dilihat pada persamaan berikut:
biasanya digunakan dalam kasus-kasus yang membutuhkan prediksi dan penentuan didalam penyelesaiannya.
Backpropagation
metode pembelajaran dalam jaringan syaraf tiruan. Proses pembelajaran dalam backpropagation dilakukan dengan penyesuaian bobot-bobot (w) dengan arah mundur berdasarkan nilai error dalam proses pembelajaran.
2. BACKPROPAGATION Backpropagation merupakan salah satu
Dengan melihat penelitian-penelitian tersebut, maka penulis berniat menggunakan algoritme backpropagation pada penelitian ini. Backpropagation merupakan salah satu algoritme jaringan syaraf tiruan yang digunakan untuk kasus prediksi dan penentuan. Jaringan syaraf tiruan sendiri merupakan metode yang diadaptasi dari jaringan syaraf manusia pada dunia nyata. Pada arsitekturnya terdapat banyak neuron yang saling terhubung dan membentuk janringan. Setiap neuron yang terhubung memiliki bobot. Bobot inilah yang akan perbarui pada proses pembelajaran backpropagation. Pada penelitian ini algoritme backpropagation digunakan untuk menentukan durasi nyala lampu lalu lintas berdasarkan panjang antrian kendaraan dan harapannya penelitian ini mendapatkan hasil yang optimal.
Pada penelitian Wicaksana et al. (2014), dijelaskan tentang metode neuro fuzzy untuk pengambilan keputusan pada kasus pemindahan lalu lintas. Metode gabungan dari jaringan syaraf tiruan dan logika fuzzy ini berhasilkan melewatkan 97.07% dari jumlah kendaraan yang sedang mengantri pada lampu lalu lintas. Metode jaringan syaraf tiruan yang digunakan adalah Levenberg-Marquardt Backpropagation. Dan pada penelitian Royani et al. (2013), dijelaskan metode Fuzzy Neural Network (FNN) dan Algoritme Genetika untuk mengatur lampu lalu lintas. Pada peneltian ini, diterapkan metode FNN pada kontrol sinyal dan Algoritme Genetika untuk proses pembelajarannya. Sedangkan penelitian Yohannes et al. (2015), dijelakan secara lengkap urutan penggunaan metode Bakpropagation untuk penentuan upah minimum kota. Parameter yang menentukan adalah tingkat inflasi. Jadi upah minimum kota ditentukan berdasarkan tingkat inflasi yang ada. Penelitian ini memiliki nilai Root Mean Square Error sebesar 0.0728.
Kondisi ini menjadi motivasi utama diadakannya penelitian mengenai Sistem Pengaturan Lampu Lalu Lintas Terdistribusi (SPLLLT). Lalu lintas yang ada saat ini hanya berorientasi terhadap waktu dan ditidak menyesuakan kondisi lalu lintas. SPLLLT diharapkan dapat menjadi bentuk evolusi dari lampu lalu lintas yang ada saat ini. Maka dari itu dibutuhkan suatu sistem yang dapat menentukan waktu sehingga waktu pada lampu lalu lintas dapat lebih dinamis berdasarkan kondisi lalu lintas. Sistem ini akan dapat memecah kepadatan lalu lintas dengan lebih efisien. Jadi ketika volume kendaraan tinggi, maka selisih waktu antara lampu merah dan lampu hijau akan dibuat dekat, begitupun sebaliknya.
- – sinyal input
- (13) Keterangan: ′′ : Nilai denormalisasi 3.
: Nilai error hidden layer j z k : Nilai output hidden layer k w j,k : Nilai bobot penghubung hidden layer j dan output layer k δ k
METODE
0.8
−0,1)
( − )×( ′
′′ =
Karena pada awal proses ada proses normalisasi data, untuk mengembalikan range nilainya maka perlu proses denormalisasi data.
RMSE : Nilai RMSE d i : Selisih output sistem pada data ke-i dengan output target pada data ke-i n : Jumlah Data
2 =1 (12) Dimana:
∑
Untuk menghitung error digunakan fungsi RMSE. Rumus untuk RMSE = √
′ = + ( × × ) (11) Untuk iterasi beriktnya, lakukan penghitungan persamaan 1-11 sebanyak iterasi dan jumlah data yang sudah ditentukan.
′ = + ( × × ) (10) Kedua adalah menghitung update bobot penghubung hidden layer dengan output layer (w).
δ yang diperoleh pada proses sebelumnya. Sama seperti proses backpropagation, proses weight updating dibagi menjadi beberapa bagian, yang pertama yaitu menghitung update bobot penghubung input layer dengan hidden layer (v).
: Nilai error ouput layer k yang terhubung dengan hidden layer Setelah proses backpropagation selesai, proses selanjutnnya adalah proses weight updating . Proses ini akan mengupdate bobot w berdasarkan hasil error
δ j
bagian proses didalamnya. Pertama proses penghitungan output pada semua node hidden layer z j (j=1,...,m) berdasarkan inputan x i (i=1,..., n).
δ k
_ = ∑ × =1
(4) = (0, _ ) (5) Keterangan : z_net k = net hidden unit k x i = nilai aktivasi dari unit x i v kj
= nilai bobot sambungan dari x ij ke unit z k
Kedua adalah menghitung output pada semua node output layer y k (k=1,...,n) berdasarkan output pada hidden layer (z j ) yang didapatkan pada proses sebelumnya. _ = ∑ ×
=1 (6) = (0, _ )
(7) Keterangan : y_net k = net output unit k z j = nilai aktivasi dari unit z j w kj = nilai bobot sambungan dari z ij ke unit y k Setelah proses feedforward selesai, proses selanjutnnya adalah proses backpropagation . Sama seperti proses feedforward , proses backpropagation dibagi menjadi beberapa bagian, yang pertama yaitu hitung error
(k=1,...,n) pada output layer terlebih dahulu berdasarkan output sistem y k dan output target t k (k=1,...,m).
ℎ, ∈ ) (9) Keterangan:
= (1 − )( − ) (8)
Keterangan: δ k : Nilai error ouput layer k y k
: Nilai output k sistem t k : Nilai output k target
Kedua adalah menghitung error δ h
(k=1,...,n) pada semua node hidden layer berdasarkan error pada output layer ( δ k
) yang didapatkan pada proses sebelumnya. = (1 − )(∑
Data yang digunakan dalam penelitian ini berupa data panjang antrian kendaraan pada keempat ruas persimpangan jalan dengan jumlah 75 data dan dibagi menjadi 2 tipe data yaitu 65 data latih dan 10 data uji. Data yang digunakan didapat dengan metode observasi pada tanggal 19-21 Oktober 2017 di persimpangan jalan
35
0,600 0,233 0,467 0,329
Setelah data dinormalisasi kemudian lakukan proses feedforward dengan menghitung nilai keluaran pada hidden layer (z) dengan menggunakan Persamaan 4. Penelitian ini menggunkan 2 node pada hidden layer. Hasil penghitungan hidden layer bisa dilihat pada Tabel 3.
... ... ... ... ... 72 0,420 0,473 0,633 0,729 73 0,233 0,133 0,480 0,157 74 0,320 0,600 0,380 0,271 75 0,633 0,600 0,333 0,226
0,287 0,180 0,400 0,180 ... ... ... ... ...
4
0,320 0,200 0,333 0,420
3
0,433 0,333 0,280 0,294
2
1
Setelah output didapatkan, dilakukan perhitungan menggunakan fungsi aktivasi ReLu seperti pada Persamaan 2 atau 5. Hasil perhitungan dapat dilihat pada Tabel 4.
(x4)
(x3) Barat
(x2) Selatan
(x1) Timur
No Utara
Tabel 2 Normalisasi Data Panjang Antrian Kendaraan
1. Hasil normalisasi data dapat dilihat pada Tabel 2.
dinormalisasi terlebih dahulu menggunakan Persamaan 1. Ini dilakukan untuk meyetarakan range semua data pada rentang 0 sampai dengan
11 Sebelum diproses lebih lanjut, data perlu
Tabel 3 Output Hidden Layer Nilai output masing
Tabel 4 Hasil Fungsi Aktivasi ReLU Nilai output masing
- – masing node z 1 z 2<
- – masing node y_net 1 y_net 1 y_net 1 y_net 1 0,383 0,388 0,35 0,265
- – masing node y 1 y 1 y 1 y 1 0,383 0,388 0,35
- 0,059 -0,046 -0,033 -0,04
- – masing node z_net 1 z_net 2 0,337 0,277
- – Activation Functions and When to Use Them? Diambil
δ 1 δ 2 δ 3 δ 4
10. Tabel 9 Bobot Awal
Setelah proses backpropagation selesai, dilanjutkan ke proses weight updating. Proses ini menggunakan Persamaan 10 dan 11. Hasil perhitungan dapat dilihat pada Tabel 9 dan Tabel
0,2 0,187
δ 1 δ 2
Tabel 8 Perhitungan error hidden layer Nilai error pada hidden layer
Hasil perhitungan dapat dilihat pada Tabel 8.
hidden layer ( δ 1 ) menggunakan persamaan 9.
Kemudian lanjut perhitungan error pada
75
0,583 0,569
Hasil perhitungan dapat dilihat pada Tabel 7.
δ k ) menggunakan Persamaan 8.
Setelah proses feedforward selesai, dilanjutkan ke proses backpropagation untuk menghitung error. Pertama hitung error pada output layer (
Tabel 6 Hasil Fungsi Aktivasi ReLU Nilai output masing
Setelah output didapatkan, dilakukan perhitungan menggunakan fungsi aktivasi ReLu seperti pada Persamaan 2 atau 7. Hasil perhitungan dapat dilihat pada Tabel 6.
Tabel 5 Output Pada Output Layer Nilai output masing
output yang dibutuhkan 4, maka penelitian ini menggunakan outpt layer sebanyak 4 Hasil perhitungan dapat dilihat pada Tabel 5.
output layer menggunakan persamaan 6. Karena
Kemudian lanjut perhitungan output pada
Tabel 7 Perhitungan error output layer Nilai error output layer
80
w111 w112 w121 w122 0,210 0,200 0,300 0,150 w131 w132 w141 w142 0,330 0,420 0,400 0,250 w211 w212 w213 w214 0,230 0,440 0,120 0,130 w221 w222 w223 w224
20
15
33
3
17
27
35
50
2
55
28
20
75
1
Barat (x4)
Selatan (x3)
Timur (x2)
Utara (x1)
Tabel 1 Data Panjang Antrian Kendaraan No
Sukarno-hatta dan jalan Coklat, Kelurahan Lowokwaru, Kota Malang. Adapun data antrian kendaraan dapat dilihat pada Tabel 1.
35
4
75
20
15
42
75
33
74
5
57
5
73
28
55
80
56
48
72
... ... ... ... ...
7 ... ... ... ... ...
45
12
0,390 0,180 0,450 0,300
4 0,17 5 0,11
7
7 0,06 7 0,06
7 0,17 4 0,11
80 0,73 3 0,06
4
3 0,06 4 0,06
70 0,73 3 0,06
2 0,12 1 0,07 0,07
1
5 0,06 1 0,06
1 0,17 8 0,10
60 0,73 3 0,06
9
5 0,05 9 0,05
90 0,73 3 0,07 0,17
10 0,73
50 0,73 3 0,05
linear , ReLU, dan Leaky ReLU dengan nilai
Binary Step Linear Sigmoid Tanh ReLU Leaky ReLU
Hasil Pengujian Fungsi Aktivasi
1 1 10 20 30 40 50 60 70 80 90 100 R MS E JUMLAH ITERASI
0,5
Karena Menggunakan fungsi aktivasi Linear maka perlu adanya pengujian tambahan yaitu pengujian konstanta a yang ada pada fungsi linear. Konstanta a berpengaruh terhadap perbaikan error sehingga perlu dicari nilai a yang optimal untuk menghasilkan error yang kecil. Pada pengujian ini, nilai a yang diuji adalah 1,2,3,4, dan 5.
0,059. Ini dikarenakan karakteristik keluaran data yang nilainya tidak mungkin lebih kecil atau sama dengan 0 dan penggunaan konstanta a = 1, sehingga hasil dari penggunaan ketiga fungsi aktivasi tersebut sama. Karena hasilnya sama, maka fungsi aktivasi yang akan digunakan adalah fungsi linear karena fungsi tersebut masih ada kemungkinan menghasilkan error yang lebih kecil dengan inisialisasi konstanta a yang tepat. Ini dikarenkan konstanta a pada fungsi linear juga berpengaruh terhadap perbaikan error (Gupta, 2018).
Berdasarkan grafik pengujian fungsi aktivasi yang ditunjukan pada Gambar 1 dan Tabel 11 dapat diketahui bahwa nilai RMSE terkecil didapatkan dengan menggunakan fungsi aktivasi
3 0,07 4 0,17
9 Gambar 1 Grafik Pengujian Fungsi Aktivasi
5 0,05
9 0,17 1 0,09
3 0,73 3 0,05
4 Nilai RMSE terkecil 0,73
4 0,07
1 0,12 4 0,07
9 0,18 3 0,09
1
Tabel 10 Bobot Hasil Weight Update
7 0,07 1 0,07
1 0,19 1 0,11
40 0,73 3 0,07
w111 w112 w121 w122 0,212 0,202 0,301 0,151 w131 w132 w141 w142 0,331 0,421 0,401 0,251 w211 w212 w213 w214 0,229 0,439 0,119 0,129 w221 w222 w223 w224 0,389 0,179 0,449 0,299
Proses diatas akan terus diulang sebanyak data yang digunakan dan sebanyak iterasi yang ditetukan diawal.
4. HASIL PENGUJIAN
30 0,73 3 0,16
e- i (Itera si =
4
6 0,16 4 0,16
Sub-bab ini membahas hasil dan pengujian program untuk penentuan durasi nyala lampu lalu lintas dengan menggunakan metode Backpropagation.Pengujian terdiri dari pengujian fungsi aktivasi, pengujian jumlah iterasi, pengujian jumlah node pada hidden
layer , dan pengujian nilai learning rate. Setiap
nilai yang dihasilkan dari keempat pengujian akan digunakanuntuk memproses data uji untuk menghasilkan nilai evaluasi yang optimal.
Pengujian fungsi aktivasi digunakan untuk menentukan fungsi aktivasi yang cocok pada permasalahan ini. Macam-macam fungsi aktivasi yang diuji adalah Binary Step, Linear,
Sigmoid, Tanh, ReLU , dan Leaky ReLU.
Berdasarkan artikel yang ditulis oleh Surmenok (2017), nilai a pada fungsi linear yang digunakan sebesar 1 dan nilai a pada fungsi Leaky ReLU sebesar 0,01. Tabel 11 dan Gambar 1 menunjukan hasil dari pengujian fungsi aktivasi.
Tabel 11 Hasil Pengujian Fungsi Aktivasi
Fungsi Aktivasi Bina ry Step Line ar Sigm oid Tanh
ReL U Leak y
ReL U Nilai RM S E p ad a Itera si k
1 , lea rn in g ra te = 1
8
0,73
3 0,31 6 0,27
4 0,20 3 0,20
6 0,31
6
10 0,73 3 0,30
5 0,24 9 0,30
5 0,30 5 0,30
5
20 0,73 3 0,26
8 0,22 3 0,27
5 0,26 8 0,26
4 0,31 6 0,31 Tabel 12 Hasil Pengujian Konstanta a
Jumlah Iterasi Nilai RMSE Konstanta a (Fungsi Aktivasi = Linear, learning rate = 0,02, dan jumlah node hidden = 2)
5 10 0,055 0,056 0,060 0,058 0,070 0,060 20 0,061 0,060 0,064 0,065 0,068 0,063 30 0,071 0,069 0,073 0,075 0,078 0,073 40 0,082 0,080 0,084 0,085 0,088 0,083 50 0,091 0,090 0,093 0,095 0,097 0,093 60 0,101 0,099 0,102 0,103 0,106 0,102 70 0,109 0,108 0,111 0,112 0,114 0,111 80 0,117 0,116 0,119 0,120 0,122 0,119 90 0,125 0,124 0,126 0,127 0,130 0,126
RMSE Jumlah Iterasi
0,05 0,1 0,15 10 20 30 40 50 60 70 80 90 100
5 RMSE Nilai Konstanta a Hasil Pengujian Konstanta a
4
3
2
1
0,05 0,055 0,06 0,065
Pengujian jumlah node pada hidden layer dilakukan untuk mengetahui berapa jumlah node yang optimal pada hidden layer untuk mendapatkan nilai error terkecil pada penelitian
proses pengujian berikutnya akan digunakan iterasi sebanyak 10.
cost atau error semakin buruk. Sehingga pada
Pada Gambar 3 terlihat grafik yang konsisten menanjak setelah iterasi ke 10. Hal ini dikarenakan pada iterasi ke 10, nilai error sudah mencapai titik optimal sehingga perbaikan pada iterasi berikutnya menyebabkan error yang lebih buruk. Menurut Sharma (2017), jika suatu parameter terlalu besar maka akan menyebabkan
Gambar 3 Grafik Pengujian Jumlah Iterasi Berdasarkan grafik pengujian jumlah iterasi yang ditunukan pada Gambar 3 dan Tabel 13 dapat dilihat bahwa nilai rata-rata RMSE terkecil didapatkan ketika iterasi = 10 yaitu sebesar 0,06.
100 0,132 0,131 0,134 0,134 0,137 0,134
4
1
3
2
1
Percobaan ke-i (Fungsi Aktivasi = Linear, learning rate = 0,02, jumlah node hidden = 2, dan a = 3)
Jumlah Iterasi Nilai RMSE Rata- rata RMSE
Tabel 13 Hasil Pengujian Jumlah Iterasi
20, 30, 40, 50, 60, 70, 80, 90, dan 100. Setiap 1 nilai yang diuji akan dilakukan 5 kali percobaan.
Pengujian jumlah iterasi dilakukan untuk mengetahui berapa jumlah iterasi yang optimal untuk mendapatkan nilai error terkecil pada penelitian ini. Jumlah iterasi yang diuji yaitu 10,
Gambar 2 Grafik Pengujian Konstanta a Berdasarkan hasil pengujian yang ditunjukan pada Gambar 2 dan Tabel 12 dapat dilihat bahwa nilai a yang menghasilkan error terkecil adalah 3. Nilai a lebih dari 3 cenderung menghasilkan error lebih besar dikarenakan perbaikan error yang melampaui batas minimum perbaikan sehingga error semakin besar, sedangkan jika nilai a lebih kecil dari 3 juga akan menghasilkan error yang lebih besar dikarenakan perbaikan error yang terlalu kecil mengakibatkan error yang terlambat menuju optimal (Surmenok, 2017).
Nilai RMSE Terkecil 0,059 0,057 0,056 0,061 0,062
5 1 0,316 0,298 0,264 0,215 0,153 10 0,305 0,157 0,056 0,061 0,062 20 0,268 0,057 0,063 0,071 0,078 30 0,164 0,062 0,073 0,084 0,095 40 0,071 0,069 0,083 0,097 0,109 50 0,059 0,075 0,093 0,109 0,122 60 0,061 0,082 0,103 0,120 0,134 70 0,064 0,089 0,111 0,129 0,146 80 0,067 0,095 0,119 0,139 0,157 90 0,070 0,102 0,127 0,148 0,168 100 0,074 0,107 0,134 0,158 0,179
4
3
2
Pengujian Jumlah Iterasi ini. Menurut Heaton (2005) jumlah node hidden
yang mengakibatkan kurang baiknya hasil layer yang baik adalah 2/3 dari jumlah input peramalan. Tetapi ketika jumlah node terlalu
ditambah dengan jumlah output. Karena jumlah
banyak maka akan terjadi kondisi input adalah 4 dan jumlah output adalah 4 maka overfitting, yaitu kondisi dimana jaringan
menurut Heaton jumlah node pada hidden layer
kehilangan kemampuan dalam generalisasi
adalah 6 sampai dengan 7 buah node. Sehingga dan mempelajari pola-pola yang diuji. jumlah node yang akan diuji yaitu sebesar 1, 2,
Sehingga untuk proses selanjutnya akan 3, 4, 5, 6, dan 7. digunakan jumlah node pada hidden layer
Tabel 14 Hasil Pengujian Jumlah Node Pada sebanyak 2.
Hidden layer Pengujian nilai learning rate dilakukan
Nilai RMSE untuk mengetahui berapa nilai learning rate
Percobaan ke-i (Fungsi Aktivasi = Linear, Rata- Jumlah learning rate = 0,02, jumlah iterasi = 10, dan rata yang optimal untuk mendapatkan nilai error
Node a = 3) RMSE terkecil pada penelitian ini. Nilai learning
1
2
3
4
5 rate yang digunakan yaitu 0,01; 0,02; 0,03; 0,04; 0,05; 0,06; 0,07; 0,08; 0,09; dan 0,1.
1 0,108 0,069 0,084 0,089 0,148 0,100 Setiap 1 nilai yang diuji akan dilakukan 5
2 0,055 0,057 0,065 0,058 0,062 0,059 kali percobaan.
Tabel 15 Hasil Pengujian Nilai Learning Rate
3 0,069 0,063 0,068 0,066 0,075 0,068 Nilai RMSE
4 0,063 0,070 0,071 0,076 0,065 0,069 Nilai Rata- Percobaan ke-i (Fungsi Aktivasi = Linear, jumlah
Learning rata iterasi = 10, jumlah Node Hidden = 2, dan a = 3)
5 0,060 0,062 0,063 0,073 0,067 0,065 Rate RMSE
1
2
3
4
5 6 0,063 0,060 0,062 0,061 0,065 0,062
0,01 0,0925 0,0689 0,0975 0,0873 0,0838 0,0860 7 0,072 0,089 0,059 0,057 0,060 0,067
0,02 0,0597 0,0674 0,0603 0,0599 0,0586 0,0612 0,03 0,0641 0,0630 0,0623 0,0591 0,0599 0,0617 Pengujian Jumlah Node pada Hidden Layer
0,04 0,0650 0,0686 0,0604 0,0636 0,0626 0,0640 0,15 0,1
0,05 0,0679 0,0712 0,0696 0,0743 0,0675 0,0701 RMSE 0,05
0,06 0,0709 0,0675 0,0692 0,0700 0,0692 0,0694 0,07 0,0722 0,0704 0,0723 0,0732 0,0693 0,0715
1
2
3
4
5
6
7 0,08 0,0820 0,0842 0,0849 0,0813 0,0824 0,0830
Jumlah Node 0,09 0,0915 0,0910 0,0930 0,0896 0,0932 0,0917
Gambar 4 Grafik Pengujian Jumlah Node pada
0,1 0,1019 0,0974 0,0930 0,0999 0,0999 0,0984 Hidden Layer
Berdasarkan grafik pengujian jumlah node pada hidden layer yang ditunjukkan
Pengujian Nilai Learning Rate pada Gambar 4 dan Tabel 14 dapat dilihat
0,15 bahwa pada jumlah node sebanyak 2
0,1 memiliki nilai rata-rata RMSE yang terkecil dengan nilai error 0,059. Sedangkan jumlah
RMSE 0,05 node sebanyak 1 memiliki nilai RMSE yang berbeda dan jauh lebih besar dari yang lainnya dikarenakan kurangnya variasi.
0,1 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09 Selain itu, jika jumlah node kurang dari 2
Nilai Learning Rate akan terjadi kondisi underfitting, yaitu kondisi dimana jaringan tidak dapat dapat
Gambar 5 Grafik Pengujian Nilai Learning
memepelajari pola yang ada dengan baik Rate
33
19
11
35
75
80
20
25
17
16
15
42
75
12
29
18
10
12
5
57
5
20
32
38
27
24
55
20
23 Dari hasil pengujian data uji pada Tabel 16
56
VII , 699-709.
Control of Traffic Light in Isolated Intersections Using Fuzzy Neural Network and Genetic Algorithm.
Royani, T., Haddadnia, J., & Alipoor, M. (2013).
International Journal of Computer Theory and Engineering, 3 (2), 1-6.
Panchal, D. (2011). Behaviour Analysis of Multilayer Perceptrons with Multiple Hidden Neurons and Hidden Layers.
Kusmagi, M. A. (2010). Selamat Berkendara Di Jalan Raya (Vol. 1). Jakarta. Panchal, G., Ganatra, A., Kosta, Y. P., &
Prediksi Distribusi Air PDAM Menggunakan Metode Jaringan Syaraf Tiruan Backpropagation Di PDAM Kota Malang. III.
Gutierrez, D. D. (2015). Machine Learning And Data Science (1st ed.). Jauhari, D., Himawan, A., & Dewi, C. (2016).
kembali dari Analytics Vidhya: https://www.analyticsvidhya.com/blog/ 2017/10/fundamentals-deep-learning- activation-functions-when-to-use-them/
Deep Learning
Gupta, D. (2018, January 3). Fundamentals of
Manajemen Lalu Lintas Pada Simpang Borobudur Kota Malang. JTIIK, VIII, 169.
G, E. A., Djakfar, L., & Wicaksono, A. (2014).
Climate Analysis Center, NMC/NWS/NOAA, Washington, D.C.,
diperoleh nilai RMSE sebesar
Foreecast Verification Measure; Refinement of the Heidke Score.
https://www.bps.go.id/linkTableDinami s/view/id/820 Barnston, A. G. (1992). Correspondance Among the Correlation, RMSE, and Heidke
Menurut Jenis Permukaan,1957-2015 (Km) . Dipetik Mei 29, 2017, dari
Badan Pusat Statistik. (2016). Panjang Jalan
2017, dari https://www.bps.go.id/linkTabelStatis/v iew/id/1413
Jumlah Kendaraan Bermotor Menurut Jenis tahun 1987-2013 . Dipetik Mei 29,
Badan Pusat Statisik. (2014). Perkembangan
6. REFERENSI
time .
Penelitian selanjutnya dapat menambahkan input dan juga menggunakan tambahan algoritma lain seperti algoritma optimasi sehingga output bisa lebih baik. Selain itu, penggunkaan sensor berbasis citra bisa digunakan untuk membuat penelitian ini real-
0,0888978841028 .
Dari hasil penelitian didapatkan bahwa metode Backpropagation dapat digunakan untuk menentukan durasi nyala lampu lalu lintas bedasarkan panjang antrian kendaraan dengan nilai RMSE sebesar
0,0888978841028. Penghitungan dilakukan menggunakan Persamaan 12.
80
48
Berdasarkan grafik pengujian nilai learning rate yang ditunjukkan pada Gambar 5 dan Tabel 15 dapat dilihat bahwa learning rate dengan nilai 0,02 memiliki nilai rata-rata RMSE yang paling kecil dengan nilai 0, 0612. Nilai learning rate lebih dari 0,02 cenderung menghasilkan error lebih besar dikarenakan perbaikan error yang melampaui batas minimum perbaikan sehingga
15
19
24
16
16
15
40
35
60
19
25
16
16
40
23
55
50
X3 X4 Y1 Y2 Y3 Y3
X1 X2
Tabel 16 Hasil Proses Data Uji Masukan Keluaran
digunakan adalah 10, jumlah hidden layer adalah 1, jumlah node pada hidden layer adalah 2, dan nilai learning rate sebesar 0,02.
Linear dengan a = 3, jumlah iterasi yanng
selanjutnya dilakukan pemrosesan data uji mengggunakan nilai-nilai hasil pengujian. Fungsi aktivasi yang digunakan adalah fungsi
layer , dan pengujian nilai learning rate,
Setelah semua pengujian dilakukan mulai dari pengujian fungsi aktivasi, pengujian jumlah iterasi, pengujian jumlah node pada hidden
menghasilkan error yang lebih besar dikarenakan perbaikan error yang terlalu kecil mengakibatkan error yang terlambat menuju optimal (Surmenok, 2017). Sehingga pada penelitian ini didapatkan nilai learning rate paling optimal sebesar 0,02.
error semakin besar, sedangkan jika nilai learning rate lebih kecil dari 0,02 juga akan
95
65
20
60
25
17
16
15
37
75
40
25
32
22
20
25
35
25
80
28
34
24
21
29
70
25
90
27
33
23
21
5. KESIMPULAN DAN SARAN
International Journal of Computer and Electrical Engineering, V (1), 142-146.
SB, D. (2011). Budaya Tertib Lalu Lintas (Vol.
I). Jakarta. Sharma, A. (2017). Understanding Activation
Functions in Deep Learning . Dipetik
Januari 14, 2018, dari https://www.learnopencv.com/understa nding-activation-functions-in-deep- learning/
Sharma, S. (2017). Towards Data Science.
Dipetik January 4, 2018, dari https://towardsdatascience.com/epoch- vs-iterations-vs-batch-size- 4dfb9c7ce9c9 Sivanandam, S. N., Sumathi, S., & Deepa, S. N. (2006). Introduction to Neura Network Using Matlab 6.0 (Vol. II). New Delhi. Smith, L. N. (2017). Cyclical Learning Rates for
Training Neural Networks. Cornell , 1-10.
University Library, 6 Surmenok, P. (2017). Towards Data Science.
Dipetik Januari 13, 2018, dari https://towardsdatascience.com/estimati ng-optimal-learning-rate-for-a-deep- neural-network-ce32f2556ce0
Wicaksana, M. D., Azizie, F. A., Amirullah, I., & Nurtanio, I. (2014). Sistem Pengambilan Keputusan Waktu Perpindahan Lampu Lalu Lintas Menggunakan Metode Neuro-Fuzzy Pada Sistem Tranportasi Cerdas. 1-8.
Yohannes, E., Mahmudy, W. F., & Rahmi, A.
(2015). Penentuan Upah Minimum Kota Berdasarkan Tingkat Inflasi Menggunakan Backpropagation Neural Network (BPNN). Jurnal Teknologi
Informasi dan Ilmu Kompuer, II (1), 34- 40.