Penentuan Durasi Nyala Lampu Lalu Lintas Berdasarkan Panjang Antrian Kendaraan Menggunakan Metode Backpropagation

  

Vol. 2, No. 9, September 2018, hlm. 2948-2956 http://j-ptiik.ub.ac.id

Penentuan Durasi Nyala Lampu Lalu Lintas Berdasarkan Panjang Antrian

Kendaraan Menggunakan Metode Backpropagation

1 2 3 Shibron Arby Azizy , Imam Cholissodin , Edy Santoso

  Program Studi Teknik Informatika, Fakultas Ilmu Komputer, Universitas Brawijaya 1 2 3 Email: shibronazizy@student.ub.ac.id, imamcs@ub.ac.id, edy144@ub.ac.id

  

Abstrak

  Lalu lintas merupakan salah satu lokasi dimana orang-orang menghabiskan waktunya. Saat ini dengan pertumbuhan kendaraan yang semakin pesat membuat kondisi lalu lintas di Indonesia semakin padat setiap harinya. Salah satu cara untuk menguraikan kepadatan lalu lintas adalah dengan adanya lampu lalu lintas. Namun, kinerja lampu lalu lintas saat ini dirasa kurang optimal dikarenakan penentuan durasi waktu lalu lintas yang masih statis berdasarkan waktu tertentu. Maka dari itu dibutuhkan suatu sistem yang dapat menentukan waktu, sehingga waktu pada lampu lalu lintas dapat lebih dinamis berdasarkan kondisi lalu lintas. Penelitian ini mengunakan metode backpropagation untuk menentukan durasi nyala lampu lalu lintas berdasarkan panjang antrian kendaraan. Hasil dari pengujian data latih didapatkah bahwa fungsi aktivasi yang cocok adalah fungsi Linear dengan a = 3, iterasi yang optimal didapatkan ketika iterasi 10, jumlah node pada hidden layer yang optimal adalah 2, dan nilai learning rate yang optimal adalah 0,02. Hasil evaluasi yang diperoleh ketika memproses data uji menggunakan fungsi aktivasi, jumlah iterasi, jumlah node pada hidden layer, dan nilai learning rate yang optimal menghasilkan nilai RMSE sebesar 0,0888978841028.

  Kata kunci: lalu lintas, lampu lalu lintas, penentuan, backpropagation, RMSE

Abstract

  

Traffic is one location where people spend a lot of time. Currently with the rapid growth of vehicles

makes conditions in Indonesia is getting crowded every day. One way to solve this problem is with traffic

lights. However, the current traffic light performance is considered less than optimal. Therefore

required a system that can determine the time, so the time at the traffic light can be more dynamic based

on traffic conditions. This research uses backpropagation method to determine the duration of traffic

lights based on queue lenght of vehicle. The result of the trained data test obtained is the Linear function

with a = 3, the optimal iteration obtained at iteration 10, the optimal number of nodes in the hidden

layer is 2, and the optimal value of learning rate is 0,02. The evaluation result when processing the test

data using the optimal activation function, the optimal number of iterations, the optimal number of nodes

in the hidden layer, and the optimal learning rate yields RMSE value of 0,0888978841028.

  Keywords: tarffic, traffic light, determining, backpropagation, RMSE.

  kemacetan. Kondisi ini disebabkan dengan tidak 1. seimbangnya antara pertumbuhan panjang jalan

   PENDAHULUAN

  dan pertumbuhan jumlah kendaraan di Lalu lintas adalah hal penting dalam

  Indonesia. Menurut data yang diperoleh dari kehidupan bermasyarakat. Lalu lintas dan Badan Pusat Statistik (BPS), jumlah kendaraan kendaraan umum merupakan salah satu kunci pada tahun 2012 mencapai 94.373.324. pertumbuhan ekonomi. Tetapi lalu lintas

  Sedangkan pada tahun 2013, jumlah kendaraan memiliki banyak permasalahan yang terjadi, mencapai 104.118.969 atau meningkat sekitar mulai dari permasalahan yang biasa saja seperti 10%. Bandingkan dengan jalan pada tahun 2012 jalanan rusak sampai masalah besar seperti yang memiliki panjang total 501.969 KM dan kecelakaan yang menyebabkan korban jiwa. Di pada tahun 2013 hanya meningkat sekitar

  Indonesia, lalu lintas memiliki permasalahan 0.012% menjadi 508.000 KM. Ini membuktikan lama yang masih belum terselesaikan, yaitu bahwa setiap harinya, arus lalu lintas di

  Fakultas Ilmu Komputer Universitas Brawijaya

2948

  Proses feedforward memiliki beberapa

  ) + 0.1 (1)

  Backpropagation , dan Weight Updating.

  y = fungsi untuk mengaktivasi nilai x Backpropagation memiliki 3 proses utama, yaitu proses Feedforward ,

  = hasil perhitungan sinyal

  (3) Keterangan : x

  = 0, < 0

  (2)

  = (0, ) , ≥ 0

  Fungsi aktivasi digunakan untuk mengaktifkan node berdasarkan hasil perhitungan sinyal-sinyal input. Fungsi aktivasi yang digunakan adalah fungsi ReLU . Rumus fungsi aktivasi :

  = nilai minimum max value = nilai maksimum

  Keterangan : x = data x’ = data hasil normalisasi min value

  − −

  Indonesia semakin padat. Salah satu cara untuk mengurai kepadatan lalu lintas adalah dengan adanya lampu lalu lintas. Namun dalam beberapa kondisi, lampu lalu lintas kurang efisien untuk menangani masalah tersebut.

  = (0.8 ×

  ′

  Proses pertama sebelum masuk ke algoritme backpropagation adalah proses normalisasi. Proses ini digunakan untuk menyetarakan range nilai pada setiap fitur menjadi antara 0 sampai dengan 1. Proses normalisasi penting dilakukan agar salah satu fitur yang memiliki tipe nilai yang tinggi tidak menjadi dominan dan juga sebaliknya. Rumus normalisasi dapat dilihat pada persamaan berikut:

  biasanya digunakan dalam kasus-kasus yang membutuhkan prediksi dan penentuan didalam penyelesaiannya.

  Backpropagation

  metode pembelajaran dalam jaringan syaraf tiruan. Proses pembelajaran dalam backpropagation dilakukan dengan penyesuaian bobot-bobot (w) dengan arah mundur berdasarkan nilai error dalam proses pembelajaran.

  2. BACKPROPAGATION Backpropagation merupakan salah satu

  Dengan melihat penelitian-penelitian tersebut, maka penulis berniat menggunakan algoritme backpropagation pada penelitian ini. Backpropagation merupakan salah satu algoritme jaringan syaraf tiruan yang digunakan untuk kasus prediksi dan penentuan. Jaringan syaraf tiruan sendiri merupakan metode yang diadaptasi dari jaringan syaraf manusia pada dunia nyata. Pada arsitekturnya terdapat banyak neuron yang saling terhubung dan membentuk janringan. Setiap neuron yang terhubung memiliki bobot. Bobot inilah yang akan perbarui pada proses pembelajaran backpropagation. Pada penelitian ini algoritme backpropagation digunakan untuk menentukan durasi nyala lampu lalu lintas berdasarkan panjang antrian kendaraan dan harapannya penelitian ini mendapatkan hasil yang optimal.

  Pada penelitian Wicaksana et al. (2014), dijelaskan tentang metode neuro fuzzy untuk pengambilan keputusan pada kasus pemindahan lalu lintas. Metode gabungan dari jaringan syaraf tiruan dan logika fuzzy ini berhasilkan melewatkan 97.07% dari jumlah kendaraan yang sedang mengantri pada lampu lalu lintas. Metode jaringan syaraf tiruan yang digunakan adalah Levenberg-Marquardt Backpropagation. Dan pada penelitian Royani et al. (2013), dijelaskan metode Fuzzy Neural Network (FNN) dan Algoritme Genetika untuk mengatur lampu lalu lintas. Pada peneltian ini, diterapkan metode FNN pada kontrol sinyal dan Algoritme Genetika untuk proses pembelajarannya. Sedangkan penelitian Yohannes et al. (2015), dijelakan secara lengkap urutan penggunaan metode Bakpropagation untuk penentuan upah minimum kota. Parameter yang menentukan adalah tingkat inflasi. Jadi upah minimum kota ditentukan berdasarkan tingkat inflasi yang ada. Penelitian ini memiliki nilai Root Mean Square Error sebesar 0.0728.

  Kondisi ini menjadi motivasi utama diadakannya penelitian mengenai Sistem Pengaturan Lampu Lalu Lintas Terdistribusi (SPLLLT). Lalu lintas yang ada saat ini hanya berorientasi terhadap waktu dan ditidak menyesuakan kondisi lalu lintas. SPLLLT diharapkan dapat menjadi bentuk evolusi dari lampu lalu lintas yang ada saat ini. Maka dari itu dibutuhkan suatu sistem yang dapat menentukan waktu sehingga waktu pada lampu lalu lintas dapat lebih dinamis berdasarkan kondisi lalu lintas. Sistem ini akan dapat memecah kepadatan lalu lintas dengan lebih efisien. Jadi ketika volume kendaraan tinggi, maka selisih waktu antara lampu merah dan lampu hijau akan dibuat dekat, begitupun sebaliknya.

  • – sinyal input

  • (13) Keterangan: ′′ : Nilai denormalisasi 3.

  : Nilai error hidden layer j z k : Nilai output hidden layer k w j,k : Nilai bobot penghubung hidden layer j dan output layer k δ k

   METODE

  0.8

  −0,1)

  ( − )×( ′

  ′′ =

  Karena pada awal proses ada proses normalisasi data, untuk mengembalikan range nilainya maka perlu proses denormalisasi data.

  RMSE : Nilai RMSE d i : Selisih output sistem pada data ke-i dengan output target pada data ke-i n : Jumlah Data

  2 =1 (12) Dimana:

  ∑

  Untuk menghitung error digunakan fungsi RMSE. Rumus untuk RMSE = √

  ′ = + ( × × ) (11) Untuk iterasi beriktnya, lakukan penghitungan persamaan 1-11 sebanyak iterasi dan jumlah data yang sudah ditentukan.

  ′ = + ( × × ) (10) Kedua adalah menghitung update bobot penghubung hidden layer dengan output layer (w).

  δ yang diperoleh pada proses sebelumnya. Sama seperti proses backpropagation, proses weight updating dibagi menjadi beberapa bagian, yang pertama yaitu menghitung update bobot penghubung input layer dengan hidden layer (v).

  : Nilai error ouput layer k yang terhubung dengan hidden layer Setelah proses backpropagation selesai, proses selanjutnnya adalah proses weight updating . Proses ini akan mengupdate bobot w berdasarkan hasil error

  δ j

  bagian proses didalamnya. Pertama proses penghitungan output pada semua node hidden layer z j (j=1,...,m) berdasarkan inputan x i (i=1,..., n).

  δ k

  _ = ∑ × =1

  (4) = (0, _ ) (5) Keterangan : z_net k = net hidden unit k x i = nilai aktivasi dari unit x i v kj

  = nilai bobot sambungan dari x ij ke unit z k

  Kedua adalah menghitung output pada semua node output layer y k (k=1,...,n) berdasarkan output pada hidden layer (z j ) yang didapatkan pada proses sebelumnya. _ = ∑ ×

  =1 (6) = (0, _ )

  (7) Keterangan : y_net k = net output unit k z j = nilai aktivasi dari unit z j w kj = nilai bobot sambungan dari z ij ke unit y k Setelah proses feedforward selesai, proses selanjutnnya adalah proses backpropagation . Sama seperti proses feedforward , proses backpropagation dibagi menjadi beberapa bagian, yang pertama yaitu hitung error

  (k=1,...,n) pada output layer terlebih dahulu berdasarkan output sistem y k dan output target t k (k=1,...,m).

  ℎ, ∈ ) (9) Keterangan:

  = (1 − )( − ) (8)

  Keterangan: δ k : Nilai error ouput layer k y k

  : Nilai output k sistem t k : Nilai output k target

  Kedua adalah menghitung error δ h

  (k=1,...,n) pada semua node hidden layer berdasarkan error pada output layer ( δ k

  ) yang didapatkan pada proses sebelumnya. = (1 − )(∑

  Data yang digunakan dalam penelitian ini berupa data panjang antrian kendaraan pada keempat ruas persimpangan jalan dengan jumlah 75 data dan dibagi menjadi 2 tipe data yaitu 65 data latih dan 10 data uji. Data yang digunakan didapat dengan metode observasi pada tanggal 19-21 Oktober 2017 di persimpangan jalan

  35

  0,600 0,233 0,467 0,329

  Setelah data dinormalisasi kemudian lakukan proses feedforward dengan menghitung nilai keluaran pada hidden layer (z) dengan menggunakan Persamaan 4. Penelitian ini menggunkan 2 node pada hidden layer. Hasil penghitungan hidden layer bisa dilihat pada Tabel 3.

  ... ... ... ... ... 72 0,420 0,473 0,633 0,729 73 0,233 0,133 0,480 0,157 74 0,320 0,600 0,380 0,271 75 0,633 0,600 0,333 0,226

  0,287 0,180 0,400 0,180 ... ... ... ... ...

  4

  0,320 0,200 0,333 0,420

  3

  0,433 0,333 0,280 0,294

  2

  1

  Setelah output didapatkan, dilakukan perhitungan menggunakan fungsi aktivasi ReLu seperti pada Persamaan 2 atau 5. Hasil perhitungan dapat dilihat pada Tabel 4.

  (x4)

  (x3) Barat

  (x2) Selatan

  (x1) Timur

  No Utara

  Tabel 2 Normalisasi Data Panjang Antrian Kendaraan

  1. Hasil normalisasi data dapat dilihat pada Tabel 2.

  dinormalisasi terlebih dahulu menggunakan Persamaan 1. Ini dilakukan untuk meyetarakan range semua data pada rentang 0 sampai dengan

  11 Sebelum diproses lebih lanjut, data perlu

  Tabel 3 Output Hidden Layer Nilai output masing

  Tabel 4 Hasil Fungsi Aktivasi ReLU Nilai output masing

  • – masing node z
  • 1 z 2<
  • – masing node y_net
  • 1 y_net 1 y_net 1 y_net 1 0,383 0,388 0,35 0,265

      δ 1 δ 2 δ 3 δ 4

      10. Tabel 9 Bobot Awal

      Setelah proses backpropagation selesai, dilanjutkan ke proses weight updating. Proses ini menggunakan Persamaan 10 dan 11. Hasil perhitungan dapat dilihat pada Tabel 9 dan Tabel

      0,2 0,187

      δ 1 δ 2

      Tabel 8 Perhitungan error hidden layer Nilai error pada hidden layer

      Hasil perhitungan dapat dilihat pada Tabel 8.

      hidden layer ( δ 1 ) menggunakan persamaan 9.

      Kemudian lanjut perhitungan error pada

      75

      0,583 0,569

      Hasil perhitungan dapat dilihat pada Tabel 7.

      δ k ) menggunakan Persamaan 8.

      Setelah proses feedforward selesai, dilanjutkan ke proses backpropagation untuk menghitung error. Pertama hitung error pada output layer (

      Tabel 6 Hasil Fungsi Aktivasi ReLU Nilai output masing

      Setelah output didapatkan, dilakukan perhitungan menggunakan fungsi aktivasi ReLu seperti pada Persamaan 2 atau 7. Hasil perhitungan dapat dilihat pada Tabel 6.

      Tabel 5 Output Pada Output Layer Nilai output masing

      output yang dibutuhkan 4, maka penelitian ini menggunakan outpt layer sebanyak 4 Hasil perhitungan dapat dilihat pada Tabel 5.

      output layer menggunakan persamaan 6. Karena

      Kemudian lanjut perhitungan output pada

      Tabel 7 Perhitungan error output layer Nilai error output layer

      80

      w111 w112 w121 w122 0,210 0,200 0,300 0,150 w131 w132 w141 w142 0,330 0,420 0,400 0,250 w211 w212 w213 w214 0,230 0,440 0,120 0,130 w221 w222 w223 w224

      20

      15

      33

      3

      17

      27

      35

      50

      2

      55

      28

      20

      75

      1

      Barat (x4)

      Selatan (x3)

      Timur (x2)

      Utara (x1)

      Tabel 1 Data Panjang Antrian Kendaraan No

      Sukarno-hatta dan jalan Coklat, Kelurahan Lowokwaru, Kota Malang. Adapun data antrian kendaraan dapat dilihat pada Tabel 1.

      35

      4

      75

      20

      15

      42

      75

      33

      74

      5

      57

      5

      73

      28

      55

      80

      56

      48

      72

      ... ... ... ... ...

      7 ... ... ... ... ...

      45

      12

    • – masing node y 1 y 1 y 1 y
    • 1 0,383 0,388 0,35

      • 0,059 -0,046 -0,033 -0,04

    • – masing node z_net 1 z_net
    • 2 0,337 0,277

        0,390 0,180 0,450 0,300

        4 0,17 5 0,11

        7

        7 0,06 7 0,06

        7 0,17 4 0,11

        80 0,73 3 0,06

        4

        3 0,06 4 0,06

        70 0,73 3 0,06

        2 0,12 1 0,07 0,07

        1

        5 0,06 1 0,06

        1 0,17 8 0,10

        60 0,73 3 0,06

        9

        5 0,05 9 0,05

        90 0,73 3 0,07 0,17

        10 0,73

        50 0,73 3 0,05

        linear , ReLU, dan Leaky ReLU dengan nilai

        Binary Step Linear Sigmoid Tanh ReLU Leaky ReLU

        Hasil Pengujian Fungsi Aktivasi

        1 1 10 20 30 40 50 60 70 80 90 100 R MS E JUMLAH ITERASI

        0,5

        Karena Menggunakan fungsi aktivasi Linear maka perlu adanya pengujian tambahan yaitu pengujian konstanta a yang ada pada fungsi linear. Konstanta a berpengaruh terhadap perbaikan error sehingga perlu dicari nilai a yang optimal untuk menghasilkan error yang kecil. Pada pengujian ini, nilai a yang diuji adalah 1,2,3,4, dan 5.

        0,059. Ini dikarenakan karakteristik keluaran data yang nilainya tidak mungkin lebih kecil atau sama dengan 0 dan penggunaan konstanta a = 1, sehingga hasil dari penggunaan ketiga fungsi aktivasi tersebut sama. Karena hasilnya sama, maka fungsi aktivasi yang akan digunakan adalah fungsi linear karena fungsi tersebut masih ada kemungkinan menghasilkan error yang lebih kecil dengan inisialisasi konstanta a yang tepat. Ini dikarenkan konstanta a pada fungsi linear juga berpengaruh terhadap perbaikan error (Gupta, 2018).

        Berdasarkan grafik pengujian fungsi aktivasi yang ditunjukan pada Gambar 1 dan Tabel 11 dapat diketahui bahwa nilai RMSE terkecil didapatkan dengan menggunakan fungsi aktivasi

        3 0,07 4 0,17

        9 Gambar 1 Grafik Pengujian Fungsi Aktivasi

        5 0,05

        9 0,17 1 0,09

        3 0,73 3 0,05

        4 Nilai RMSE terkecil 0,73

        4 0,07

        1 0,12 4 0,07

        9 0,18 3 0,09

        1

        Tabel 10 Bobot Hasil Weight Update

        7 0,07 1 0,07

        1 0,19 1 0,11

        40 0,73 3 0,07

        w111 w112 w121 w122 0,212 0,202 0,301 0,151 w131 w132 w141 w142 0,331 0,421 0,401 0,251 w211 w212 w213 w214 0,229 0,439 0,119 0,129 w221 w222 w223 w224 0,389 0,179 0,449 0,299

        Proses diatas akan terus diulang sebanyak data yang digunakan dan sebanyak iterasi yang ditetukan diawal.

      4. HASIL PENGUJIAN

        30 0,73 3 0,16

        e- i (Itera si =

        4

        6 0,16 4 0,16

        Sub-bab ini membahas hasil dan pengujian program untuk penentuan durasi nyala lampu lalu lintas dengan menggunakan metode Backpropagation.Pengujian terdiri dari pengujian fungsi aktivasi, pengujian jumlah iterasi, pengujian jumlah node pada hidden

        layer , dan pengujian nilai learning rate. Setiap

        nilai yang dihasilkan dari keempat pengujian akan digunakanuntuk memproses data uji untuk menghasilkan nilai evaluasi yang optimal.

        Pengujian fungsi aktivasi digunakan untuk menentukan fungsi aktivasi yang cocok pada permasalahan ini. Macam-macam fungsi aktivasi yang diuji adalah Binary Step, Linear,

        Sigmoid, Tanh, ReLU , dan Leaky ReLU.

        Berdasarkan artikel yang ditulis oleh Surmenok (2017), nilai a pada fungsi linear yang digunakan sebesar 1 dan nilai a pada fungsi Leaky ReLU sebesar 0,01. Tabel 11 dan Gambar 1 menunjukan hasil dari pengujian fungsi aktivasi.

        Tabel 11 Hasil Pengujian Fungsi Aktivasi

        Fungsi Aktivasi Bina ry Step Line ar Sigm oid Tanh

        ReL U Leak y

        ReL U Nilai RM S E p ad a Itera si k

        1 , lea rn in g ra te = 1

        8

        0,73

        3 0,31 6 0,27

        4 0,20 3 0,20

        6 0,31

        6

        10 0,73 3 0,30

        5 0,24 9 0,30

        5 0,30 5 0,30

        5

        20 0,73 3 0,26

        8 0,22 3 0,27

        5 0,26 8 0,26

        4 0,31 6 0,31 Tabel 12 Hasil Pengujian Konstanta a

        Jumlah Iterasi Nilai RMSE Konstanta a (Fungsi Aktivasi = Linear, learning rate = 0,02, dan jumlah node hidden = 2)

        5 10 0,055 0,056 0,060 0,058 0,070 0,060 20 0,061 0,060 0,064 0,065 0,068 0,063 30 0,071 0,069 0,073 0,075 0,078 0,073 40 0,082 0,080 0,084 0,085 0,088 0,083 50 0,091 0,090 0,093 0,095 0,097 0,093 60 0,101 0,099 0,102 0,103 0,106 0,102 70 0,109 0,108 0,111 0,112 0,114 0,111 80 0,117 0,116 0,119 0,120 0,122 0,119 90 0,125 0,124 0,126 0,127 0,130 0,126

        RMSE Jumlah Iterasi

        0,05 0,1 0,15 10 20 30 40 50 60 70 80 90 100

        5 RMSE Nilai Konstanta a Hasil Pengujian Konstanta a

        4

        3

        2

        1

        0,05 0,055 0,06 0,065

        Pengujian jumlah node pada hidden layer dilakukan untuk mengetahui berapa jumlah node yang optimal pada hidden layer untuk mendapatkan nilai error terkecil pada penelitian

        proses pengujian berikutnya akan digunakan iterasi sebanyak 10.

        cost atau error semakin buruk. Sehingga pada

        Pada Gambar 3 terlihat grafik yang konsisten menanjak setelah iterasi ke 10. Hal ini dikarenakan pada iterasi ke 10, nilai error sudah mencapai titik optimal sehingga perbaikan pada iterasi berikutnya menyebabkan error yang lebih buruk. Menurut Sharma (2017), jika suatu parameter terlalu besar maka akan menyebabkan

        Gambar 3 Grafik Pengujian Jumlah Iterasi Berdasarkan grafik pengujian jumlah iterasi yang ditunukan pada Gambar 3 dan Tabel 13 dapat dilihat bahwa nilai rata-rata RMSE terkecil didapatkan ketika iterasi = 10 yaitu sebesar 0,06.

        100 0,132 0,131 0,134 0,134 0,137 0,134

        4

        1

        3

        2

        1

        Percobaan ke-i (Fungsi Aktivasi = Linear, learning rate = 0,02, jumlah node hidden = 2, dan a = 3)

        Jumlah Iterasi Nilai RMSE Rata- rata RMSE

        Tabel 13 Hasil Pengujian Jumlah Iterasi

        20, 30, 40, 50, 60, 70, 80, 90, dan 100. Setiap 1 nilai yang diuji akan dilakukan 5 kali percobaan.

        Pengujian jumlah iterasi dilakukan untuk mengetahui berapa jumlah iterasi yang optimal untuk mendapatkan nilai error terkecil pada penelitian ini. Jumlah iterasi yang diuji yaitu 10,

        Gambar 2 Grafik Pengujian Konstanta a Berdasarkan hasil pengujian yang ditunjukan pada Gambar 2 dan Tabel 12 dapat dilihat bahwa nilai a yang menghasilkan error terkecil adalah 3. Nilai a lebih dari 3 cenderung menghasilkan error lebih besar dikarenakan perbaikan error yang melampaui batas minimum perbaikan sehingga error semakin besar, sedangkan jika nilai a lebih kecil dari 3 juga akan menghasilkan error yang lebih besar dikarenakan perbaikan error yang terlalu kecil mengakibatkan error yang terlambat menuju optimal (Surmenok, 2017).

        Nilai RMSE Terkecil 0,059 0,057 0,056 0,061 0,062

        5 1 0,316 0,298 0,264 0,215 0,153 10 0,305 0,157 0,056 0,061 0,062 20 0,268 0,057 0,063 0,071 0,078 30 0,164 0,062 0,073 0,084 0,095 40 0,071 0,069 0,083 0,097 0,109 50 0,059 0,075 0,093 0,109 0,122 60 0,061 0,082 0,103 0,120 0,134 70 0,064 0,089 0,111 0,129 0,146 80 0,067 0,095 0,119 0,139 0,157 90 0,070 0,102 0,127 0,148 0,168 100 0,074 0,107 0,134 0,158 0,179

        4

        3

        2

        Pengujian Jumlah Iterasi ini. Menurut Heaton (2005) jumlah node hidden

        yang mengakibatkan kurang baiknya hasil layer yang baik adalah 2/3 dari jumlah input peramalan. Tetapi ketika jumlah node terlalu

        ditambah dengan jumlah output. Karena jumlah

        banyak maka akan terjadi kondisi input adalah 4 dan jumlah output adalah 4 maka overfitting, yaitu kondisi dimana jaringan

        menurut Heaton jumlah node pada hidden layer

        kehilangan kemampuan dalam generalisasi

        adalah 6 sampai dengan 7 buah node. Sehingga dan mempelajari pola-pola yang diuji. jumlah node yang akan diuji yaitu sebesar 1, 2,

        Sehingga untuk proses selanjutnya akan 3, 4, 5, 6, dan 7. digunakan jumlah node pada hidden layer

        Tabel 14 Hasil Pengujian Jumlah Node Pada sebanyak 2.

        Hidden layer Pengujian nilai learning rate dilakukan

        Nilai RMSE untuk mengetahui berapa nilai learning rate

        Percobaan ke-i (Fungsi Aktivasi = Linear, Rata- Jumlah learning rate = 0,02, jumlah iterasi = 10, dan rata yang optimal untuk mendapatkan nilai error

        Node a = 3) RMSE terkecil pada penelitian ini. Nilai learning

        1

        2

        3

        4

        5 rate yang digunakan yaitu 0,01; 0,02; 0,03; 0,04; 0,05; 0,06; 0,07; 0,08; 0,09; dan 0,1.

        1 0,108 0,069 0,084 0,089 0,148 0,100 Setiap 1 nilai yang diuji akan dilakukan 5

        2 0,055 0,057 0,065 0,058 0,062 0,059 kali percobaan.

        Tabel 15 Hasil Pengujian Nilai Learning Rate

        3 0,069 0,063 0,068 0,066 0,075 0,068 Nilai RMSE

        4 0,063 0,070 0,071 0,076 0,065 0,069 Nilai Rata- Percobaan ke-i (Fungsi Aktivasi = Linear, jumlah

        Learning rata iterasi = 10, jumlah Node Hidden = 2, dan a = 3)

        5 0,060 0,062 0,063 0,073 0,067 0,065 Rate RMSE

        1

        2

        3

        4

        5 6 0,063 0,060 0,062 0,061 0,065 0,062

        0,01 0,0925 0,0689 0,0975 0,0873 0,0838 0,0860 7 0,072 0,089 0,059 0,057 0,060 0,067

        0,02 0,0597 0,0674 0,0603 0,0599 0,0586 0,0612 0,03 0,0641 0,0630 0,0623 0,0591 0,0599 0,0617 Pengujian Jumlah Node pada Hidden Layer

        0,04 0,0650 0,0686 0,0604 0,0636 0,0626 0,0640 0,15 0,1

        0,05 0,0679 0,0712 0,0696 0,0743 0,0675 0,0701 RMSE 0,05

        0,06 0,0709 0,0675 0,0692 0,0700 0,0692 0,0694 0,07 0,0722 0,0704 0,0723 0,0732 0,0693 0,0715

        1

        2

        3

        4

        5

        6

        7 0,08 0,0820 0,0842 0,0849 0,0813 0,0824 0,0830

        Jumlah Node 0,09 0,0915 0,0910 0,0930 0,0896 0,0932 0,0917

        Gambar 4 Grafik Pengujian Jumlah Node pada

        0,1 0,1019 0,0974 0,0930 0,0999 0,0999 0,0984 Hidden Layer

        Berdasarkan grafik pengujian jumlah node pada hidden layer yang ditunjukkan

        Pengujian Nilai Learning Rate pada Gambar 4 dan Tabel 14 dapat dilihat

        0,15 bahwa pada jumlah node sebanyak 2

        0,1 memiliki nilai rata-rata RMSE yang terkecil dengan nilai error 0,059. Sedangkan jumlah

        RMSE 0,05 node sebanyak 1 memiliki nilai RMSE yang berbeda dan jauh lebih besar dari yang lainnya dikarenakan kurangnya variasi.

        0,1 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09 Selain itu, jika jumlah node kurang dari 2

        Nilai Learning Rate akan terjadi kondisi underfitting, yaitu kondisi dimana jaringan tidak dapat dapat

        Gambar 5 Grafik Pengujian Nilai Learning

        memepelajari pola yang ada dengan baik Rate

      • – Activation Functions and When to Use Them? Diambil

        33

        19

        11

        35

        75

        80

        20

        25

        17

        16

        15

        42

        75

        12

        29

        18

        10

        12

        5

        57

        5

        20

        32

        38

        27

        24

        55

        20

        23 Dari hasil pengujian data uji pada Tabel 16

        56

        VII , 699-709.

        Control of Traffic Light in Isolated Intersections Using Fuzzy Neural Network and Genetic Algorithm.

        Royani, T., Haddadnia, J., &amp; Alipoor, M. (2013).

        International Journal of Computer Theory and Engineering, 3 (2), 1-6.

        Panchal, D. (2011). Behaviour Analysis of Multilayer Perceptrons with Multiple Hidden Neurons and Hidden Layers.

        Kusmagi, M. A. (2010). Selamat Berkendara Di Jalan Raya (Vol. 1). Jakarta. Panchal, G., Ganatra, A., Kosta, Y. P., &amp;

        Prediksi Distribusi Air PDAM Menggunakan Metode Jaringan Syaraf Tiruan Backpropagation Di PDAM Kota Malang. III.

        Gutierrez, D. D. (2015). Machine Learning And Data Science (1st ed.). Jauhari, D., Himawan, A., &amp; Dewi, C. (2016).

        kembali dari Analytics Vidhya: https://www.analyticsvidhya.com/blog/ 2017/10/fundamentals-deep-learning- activation-functions-when-to-use-them/

        Deep Learning

        Gupta, D. (2018, January 3). Fundamentals of

        Manajemen Lalu Lintas Pada Simpang Borobudur Kota Malang. JTIIK, VIII, 169.

        G, E. A., Djakfar, L., &amp; Wicaksono, A. (2014).

        Climate Analysis Center, NMC/NWS/NOAA, Washington, D.C.,

        diperoleh nilai RMSE sebesar

        Foreecast Verification Measure; Refinement of the Heidke Score.

        https://www.bps.go.id/linkTableDinami s/view/id/820 Barnston, A. G. (1992). Correspondance Among the Correlation, RMSE, and Heidke

        Menurut Jenis Permukaan,1957-2015 (Km) . Dipetik Mei 29, 2017, dari

        Badan Pusat Statistik. (2016). Panjang Jalan

        2017, dari https://www.bps.go.id/linkTabelStatis/v iew/id/1413

        Jumlah Kendaraan Bermotor Menurut Jenis tahun 1987-2013 . Dipetik Mei 29,

        Badan Pusat Statisik. (2014). Perkembangan

        6. REFERENSI

        time .

        Penelitian selanjutnya dapat menambahkan input dan juga menggunakan tambahan algoritma lain seperti algoritma optimasi sehingga output bisa lebih baik. Selain itu, penggunkaan sensor berbasis citra bisa digunakan untuk membuat penelitian ini real-

        0,0888978841028 .

        Dari hasil penelitian didapatkan bahwa metode Backpropagation dapat digunakan untuk menentukan durasi nyala lampu lalu lintas bedasarkan panjang antrian kendaraan dengan nilai RMSE sebesar

        0,0888978841028. Penghitungan dilakukan menggunakan Persamaan 12.

        80

        48

        Berdasarkan grafik pengujian nilai learning rate yang ditunjukkan pada Gambar 5 dan Tabel 15 dapat dilihat bahwa learning rate dengan nilai 0,02 memiliki nilai rata-rata RMSE yang paling kecil dengan nilai 0, 0612. Nilai learning rate lebih dari 0,02 cenderung menghasilkan error lebih besar dikarenakan perbaikan error yang melampaui batas minimum perbaikan sehingga

        15

        19

        24

        16

        16

        15

        40

        35

        60

        19

        25

        16

        16

        40

        23

        55

        50

        X3 X4 Y1 Y2 Y3 Y3

        X1 X2

        Tabel 16 Hasil Proses Data Uji Masukan Keluaran

        digunakan adalah 10, jumlah hidden layer adalah 1, jumlah node pada hidden layer adalah 2, dan nilai learning rate sebesar 0,02.

        Linear dengan a = 3, jumlah iterasi yanng

        selanjutnya dilakukan pemrosesan data uji mengggunakan nilai-nilai hasil pengujian. Fungsi aktivasi yang digunakan adalah fungsi

        layer , dan pengujian nilai learning rate,

        Setelah semua pengujian dilakukan mulai dari pengujian fungsi aktivasi, pengujian jumlah iterasi, pengujian jumlah node pada hidden

        menghasilkan error yang lebih besar dikarenakan perbaikan error yang terlalu kecil mengakibatkan error yang terlambat menuju optimal (Surmenok, 2017). Sehingga pada penelitian ini didapatkan nilai learning rate paling optimal sebesar 0,02.

        error semakin besar, sedangkan jika nilai learning rate lebih kecil dari 0,02 juga akan

        95

        65

        20

        60

        25

        17

        16

        15

        37

        75

        40

        25

        32

        22

        20

        25

        35

        25

        80

        28

        34

        24

        21

        29

        70

        25

        90

        27

        33

        23

        21

      5. KESIMPULAN DAN SARAN

        International Journal of Computer and Electrical Engineering, V (1), 142-146.

        SB, D. (2011). Budaya Tertib Lalu Lintas (Vol.

        I). Jakarta. Sharma, A. (2017). Understanding Activation

        Functions in Deep Learning . Dipetik

        Januari 14, 2018, dari https://www.learnopencv.com/understa nding-activation-functions-in-deep- learning/

        Sharma, S. (2017). Towards Data Science.

        Dipetik January 4, 2018, dari https://towardsdatascience.com/epoch- vs-iterations-vs-batch-size- 4dfb9c7ce9c9 Sivanandam, S. N., Sumathi, S., &amp; Deepa, S. N. (2006). Introduction to Neura Network Using Matlab 6.0 (Vol. II). New Delhi. Smith, L. N. (2017). Cyclical Learning Rates for

        Training Neural Networks. Cornell , 1-10.

        University Library, 6 Surmenok, P. (2017). Towards Data Science.

        Dipetik Januari 13, 2018, dari https://towardsdatascience.com/estimati ng-optimal-learning-rate-for-a-deep- neural-network-ce32f2556ce0

        Wicaksana, M. D., Azizie, F. A., Amirullah, I., &amp; Nurtanio, I. (2014). Sistem Pengambilan Keputusan Waktu Perpindahan Lampu Lalu Lintas Menggunakan Metode Neuro-Fuzzy Pada Sistem Tranportasi Cerdas. 1-8.

        Yohannes, E., Mahmudy, W. F., &amp; Rahmi, A.

        (2015). Penentuan Upah Minimum Kota Berdasarkan Tingkat Inflasi Menggunakan Backpropagation Neural Network (BPNN). Jurnal Teknologi

        Informasi dan Ilmu Kompuer, II (1), 34- 40.