lebih baik untuk salah satu yang memiliki kesalahan kecil tapi kadang-kadang menghasilkan sesuatu yang sangat besar. MSE dirumuskan sebagai berikut :
= ∑
�
− ̂
� �=
2.2
3. Mean Absolute Percentage Error MAPE
Mean Absolute Percentage Error MAPE dihitung dengan menemukan kesalahan aboslut pada setiap periode dan membaginya dengan nilai observasi
pada periode tersebut. Setelah itu persentasi absolutnya dirata-ratakan Nurmaida,2002. Metode ini sangat berguna apabila ukuran variabel
merupakan faktor penting dalam mengevaluasi akurasi peramalan. MAPE dirumuskan sebagai berikut :
�� = ∑ |
�
− ̂
�
|
� �=
2.3
2.4. Metode Extreme Learning Machine ELM
Extreme Learning Machine ELM adalah metode baru yang merupakan bagian dari jaringan syaraf tiruan. ELM termasuk pada feedforward neural network yang memiliki
satu single hidden layer Sun et al, 2008. Metode ELM dipercaya dapat mengatasi permasalah learning speed yang selama ini terjadi pada metode-metode lain pada feed-
forward neural networks Huang et al, 2005. Menurut mereka terdapat dua alasan kenapa feed-forrward neural networks memiliki learning speed yang rendah :
1. Feedforward neural networks menggunakan slow gradient based learning
algorithm dalam melakukan proses training. 2.
Semua parameter pada jaringan ditentukan secara iterative dengan menggunakan metode pembelajaran tersebut.
Parameter yang dimaksud disini adalah input weight dan hidden bias yang berhubungan antar layer sehingga learning speed berjalan sangat lama dan kejadian
Universitas Sumatera Utara
terjebak dalam local minima sering terjadi Huang et al, 2005. Sedangkan pada ELM, input weight dan hidden bias dipilih secara acak sehingga menghasilkan learning speed
yang cepat dan mampu menghasilkan performa yang baik.
Berikut ini adalah gambaran umum struktur ELM :
Gambar 2.5. Struktur Umum ELM
ELM memanfaatkan teori invers matrik dalam proses pembelajarannya. Teori yang digunakan adalah moore penrose pseudoinverse. Gambar 2.5 menunjukkan
sebuah model sederhana single-hidden layer feedforward networks SLFNs yang merupakan struktur umum dari ELM. Diberikan sebanyak n input, m neuron pada
hidden layer dan fungsi aktivasi gx. misalkan X = [ x
1
,x
2
,x
3
,… x
n
] dengan x
i
merupakan nilai input pada jaringan tersebut. α merupakan matriks bobot penghubung
input layer dan hidden layer maka α matriks mempunyai ukuran nxm. Penentuan nilai
elemen-elemen matrik tersebut dilakukan secara acak. Kemudian setiap nilai tersebut diolah pada hidden layer menggunakan fungsi aktivasi tertentu dan nilai tersebut
dihimpun dalam sebuah matrik H dengan ordo lxm H = [h1,h2,h3,… hn]. Moore
Universitas Sumatera Utara
penrose pseudoinverse digunakan untuk menentukan nilai bobot antara hiddent layer dan
output layer β. Metode ELM memiliki model matematis yang berbeda dengan feed-forward
neural networks pada umumnya, dimana model matematis ELM berbentuk lebih sederhana dan lebih efektif. Berikut ini merupakan rumusan metode ELM untuk N
jumlah sample yang berbeda X
i
, t
i
Agustina et al, 2010. = [
+ , … …
]
�
∈ 2.4
�
= [
�
+
�
, … …
�
]
�
∈ 2.5
Standar SLFNs dengan jumlah hidden nodes sebanyak N dan fungsi aktivasi gx dapat dirumuskan sebagai berikut Agustina et al, 2010 :
∑ �
=
= ∑ �
=
∙ + � = 2.6
Dimana : � = 1,2,...., N
= ,
, … ,
�
, merupakan vektor dari weight yang menghubungkan i th hidden nodes dan input nodes.
� = � , � , … , �
�
, merupakan
weight vector
yang menghubungkan i th hidden nodes dan input nodes.
� = treshold dari i th hidden nodes. = Inner product dari W
i
dan X
j
SLFNs dengan N hidden nodes dan activation function gx diasumsikan dapat memperkirakan dengan tingkat error 0 dirumuskan sebagai berikut Agustina et al,
2010 :
∑‖ − � ‖
=
= sehingga o
j
= t
j
2.7
Universitas Sumatera Utara
∑ �
=
∙ + � = �
2.8
Persamaan 2.11 di atas dapat disempurnakan lagi menjadi sebagai berikut: � � =
2.9
Dimana : � = Hidden layer dari output matriks.
� = output weight. = Matriks dari target atau output.
Pada ELM input weight dan hidden bias ditentukan secara random, maka output weight yang berhubungan dengan hidden layer dirumuskan sebagai berikut :
� = �
+
2.10
2.5. Penelitian Terdahulu