19
Correlation = ∑ ∑ �
,
[ − � − �
√� � ]
�− =
�− =
2.6
Dimana � dan � adalah perhitungan mean sedangkan � dan � adalah perhitungan
variance. Perhitungan mean ditunjukkan pada persamaan 2.7 dan persamaan 2.8.
Perhitungan variance ditunjukkan pada persamaan 2.9 dan persamaan 2.10.
� = ∑ ∑ �
, �−
= �−
=
2.7
� = ∑ ∑ �
, �−
= �−
=
2.8
� = ∑ ∑ �
,
− �
�− =
�− =
2.9
� = ∑ ∑ �
,
− �
�− =
�− =
2.10
2.5. Normalisasi Data
Normalisasi adalah teknik pra pengolahan data yaitu dengan mentransformasikan nilai atribut suatu dataset sehingga berada pada range tertentu, misalnya diantara 0 sampai
1. Normalisasi dapat digunakan dalam persoalan klasifikasi data seperti neural network dan clustering Atomi, 2012. Beberapa teknik normalisasi data adalah sebagai berikut.
2.5.1. Normalisasi Min-Max
Normalisasi Min-Max adalah normalisasi data dengan menskalakan data secara linier ke dalam range yang ditentukan. Persamaan normalisasi Min-Max ditunjukkan pada
persamaan 2.11.
v’ = −
� �
−
�
_
�
− _
�
+ _
�
2.11
Universitas Sumatera Utara
20
Dimana min
A
dan max
A
adalah nilai – nilai minimum dan maksimum dari atribut A, dan
v adalah nilai atribut A yang akan dipetakan menjadi
v’ dalam rentang [new_max
A
; new_min
A
].
2.5.2. Normalisasi Z-Score
Normalisasi Z-Score menggunakan mean dan standar deviasi dalam menormalisasi nilai – nilai suatu atribut. Persamaan normalisasi Z-Score ditunjukkan pada persamaan 2.12.
v’ = − �
�
�
�
2.12
Dimana v adalah nilai atribut A, �
�
adalah mean dari A dan �
�
adalah standar deviasi dari A.
2.5.3. Normalisasi Decimal Scaling
Normalisasi decimal scaling adalah normalisasi data dengan memindahkan titik desimal dari nilai suatu atribut. Besar pergeseran titik desimal ditentukan oleh nilai
absolut maksimum dalam suatu atribut. Nilai v dari suatu atribut dinormalisasi menjadi v’ dengan persamaan 2.13.
v’ = 2.13
Dimana m adalah nilai integer terkecil sehingga Max | v’| 1.
2.6. Jaringan Saraf Tiruan
Jaringan saraf tiruan JST adalah sistem yang memiliki komputasi dengan kesamaan tertentu dengan cara kerja sistem saraf manusia. JST mengadaptasi cara kerja sistem
saraf manusia dengan beberapa asumsi yaitu sebagai berikut Darmawan, 2010. 1.
Unit pemroses informasi disebut neuron. 2.
Sinyal ditransmisikan antar neuron melalui penghubung sinapsis. 3.
Setiap penghubung memiliki bobot dimana akan dilakukan operasi perkalian antara sinyal yang disalurkan dengan bobot.
Universitas Sumatera Utara
21
4. Setiap neuron memiliki fungsi aktivasi. Fungsi aktivasi adalah fungsi yang
memproses input sehingga menghasilkan output tertentu. Komponen utama pada jaringan saraf tiruan adalah sebagai berikut.
1. Neuron
Neuron atau node merupakan tempat untuk memproses informasi. Setiap neuron
akan menerima input, memproses input lalu menghasilkan sebuah output Purnamasari, 2013.
2. Bobot
Bobot atau weight adalah nilai yang merepresentasikan koneksi antarneuron Purnamasari, 2013. Pada setiap penghubung akan dilakukan operasi perkalian
bobot dengan sinyal yang melewati penghubung tersebut. 3.
Fungsi Aktivasi Fungsi aktivasi adalah fungsi yang menentukan output dari suatu neuron
berdasarkan sinyal masukan yang diterima. Setiap neuron akan menerapkan fungsi aktivasi Wicaksono, 2008.
4. Layer
Layer adalah lapisan pada JST. Arsitektur jaringan JST terdiri atas jaringan layer
tunggal dan jaringan layer jamak. Jaringan layer tunggal terdiri dari lapisan input dan lapisan output. Sedangkan jaringan layer jamak terdiri atas lapisan input,
lapisan output serta lapisan tersembunyi yang terletak di antara lapisan input dan lapisan output. Jaringan layer tunggal dan jaringan layer jamak dapat dilihat pada
Gambar 2.16.
a b
Gambar 2.16. a Jaringan layer tunggal b Jaringan layer jamak
Universitas Sumatera Utara
22
Pemrosesan informasi pada neuron di dalam JST diadaptasi dari cara kerja neuron
sistem saraf manusia. Hal tersebut dapat ditunjukkan pada Gambar 2.17. Sejumlah p buah input ditambah input bias akan dikalikan dengan weight yang
bersesuaian. Kemudian akan dilakukan penjumlahan terhadap seluruh hasil perkalian tersebut summing junction. Lalu hasil dari penjumlahan tersebut akan diproses oleh
fungsi aktivasi sehingga output tertentu dapat dihasilkan.
Gambar 2.17. Model tiruan neuron pada jaringan saraf tiruan Hajek, 2005
JST memiliki metode pembelajaranpelatihan untuk memproses input yaitu supervised learning
memilki target dan unsupervised learning tidak memiliki target. Pada pembelajaran supervised learning, target akan ditentukan dan kemudian nilai
input dan output akan dilatih hingga nilai error selisih output dengan target dapat
seminimal mungkin Wicaksono, 2008. Contoh metode pembelajaran supervised learning yaitu
metode backpropagation.
2.6.1. Fungsi aktivasi
Di dalam JST, fungsi aktivasi berperan dalam menentukan nilai output. Beberapa fungsi aktivasi yang dapat digunakan di dalam JST adalah sebagai berikut.
1. Fungsi step
Fungsi step menghasilkan output bernilai 1 atau 0. Fungsi step menghasilkan output 1 jika nilai input = 0 sebaliknya fungsi tersebut akan menghasilkan output 0 jika
nilai input 0. Fungsi step ditunjukkan pada persamaan 2.14.
Universitas Sumatera Utara
23
= { ,
≥ ,
2.14
2. Fungsi sign
Fungsi sign menghasilkan output bernilai 1 atau -1. Fungsi sign ditunjukkan pada persamaan 2.15.
= { ,
≥ − ,
2.15
3. Fungsi sigmoid biner
Fungsi sigmoid biner menghasilkan nilai output di dalam range yang kontinu yaitu di antara 0 dan 1. Fungsi sigmoid biner ditunjukkan pada persamaan 2.16.
= +
−
2.16
Fungsi step, fungsi sign dan fungsi sigmoid biner dapat direpresentasikan ke dalam bentuk grafik yang dapat dilihat pada Gambar 2.18.
a b
c
Gambar 2.18. a Fungsi step b fungsi sign c fungsi sigmoid biner
2.6.2. Backpropagation
Backpropagation merupakan salah satu metode pelatihan jaringan saraf tiruan yang
terawasi supervised learning yang melakukan pengubahan bobot – bobot penghubung
antarneuron pada lapisan tersembunyi Priyani, 2009. Backpropagation berusaha menyeimbangkan kemampuan jaringan dalam mengenali pola selama waktu pelatihan
dan melatih jaringan agar menghasilkan output yang benar berdasarkan pola masukan
Universitas Sumatera Utara
24
yang serupa tidak sama dengan pola yang dipakai selama pelatihan Purnamasari, 2013.
Metode backpropagation terdiri dari dua fase, yaitu fase perambatan maju feed forward
dan fase arah mundur backward. Metode backpropagation melakukan pengubahan nilai bobot-bobot pada fase arah mundur backward dengan menggunakan
error output . Fase perambatan maju feed forward harus dilalui terlebih dahulu untuk
dapat memperoleh nilai error tersebut. Pada fase perambatan maju, setiap neuron diaktifkan oleh fungsi aktivasi Priyani, 2009.
Arsitektur jaringan backpropagation dapat terbentuk dari arsitektur jaringan layer
jamak seperti ditunjukkan pada Gambar 2.19, dimana terdapat n buah masukan ditambah satu buah bias, lapisan tersembunyi yang terdiri dari p neuron ditambah
satu buah bias dan lapisan keluaran yang terdiri dari m neuron.
Gambar 2.19. Arsitektur backpropagation Purnamasari, 2013
Berikut adalah algoritma backpropagation untuk jaringan dengan satu layer tersembunyi dengan fungsi aktivasi yang digunakan adalah fungsi sigmoid biner
Purnamasari, 2013.
Langkah 0: Inisialisasi semua bobot gunakan bilangan kecil secara acak. Langkah 1: Jika belum terdapat kondisi untuk berhenti, lakukan langkah 2-9.
Langkah 2: Lakukan langkah 3-8 untuk setiap pasang data pelatihan.
Universitas Sumatera Utara
25
Fase I: Propagasi Maju feed forward
Langkah 3: Tiap unit masukan menerima sinyal dan meneruskan sinyal tersebut ke unit
selanjutnya lapisan tersembunyi.
Langkah 4: Hitung nilai
_ pada unit tersembunyi dengan menggunakan
persamaan 2.17. Kemudian hitung nilai output unit tersembunyi =
1,2,…,� dengan menggunakan persamaan 2.18. Nilai output diperoleh dengan menggunakan fungsi
aktivasi sigmoid biner. _
= + ∑
=
2.17 =
_ =
+
− _ ��
2.18
Langkah 5: Hitung seluruh output jaringan pada unit =
1,2,…, . Hitung nilai
_ pada unit keluaran dengan menggunakan persamaan 2.19.
Kemudian hitung seluruh output jaringan pada unit =
1,2,…, dengan menggunakan persamaan 2.20. Nilai output
diperoleh dengan menggunakan fungsi aktivasi sigmoid biner.
_ =
+ ∑
� =
2.19 =
_ =
+
− _ ��
2.20
Fase II: Propagasi Mundur backward
Langkah 6: Hitung faktor
� di unit keluaran = 1,2,…, dengan menggunakan persamaan 2.21
. � =
−
′
_ =
− −
2.21 � merupakan unit kesalahan yang digunakan untuk mengubah bobot layer pada
langkah selanjutnya langkah 7. Kemudian hitung suku perubahan bobot yang
akan digunakan untuk memperoleh bobot yang baru dengan learning rate
� menggunakan persamaan 2.22.
Universitas Sumatera Utara
26 Δ
= � � ; = , , … , ; = , , … , � 2.22
Langkah 7: Hitung penjumlahan
�_
j
pada unit tersembunyi =
1,2,…,� dengan menggunakan persamaan 2.23. Hitung faktor
� pada unit tersembunyi menggunakan persamaan 2.24. Kemudian hitung suku perubahan bobot
yang akan digunakan untuk memperoleh nilai bobot
yang baru dengan menggunakan persamaan 2.25. �_
j
= ∑ �
k kj m
k=
2.23 �
= �_
′ _ =
�_ 1
− 2.24
� = � � ;
= 1,2,…,� ; = 0,1,…,
2.25
Fase III: Perubahan Bobot
Langkah 8: Hitung semua perubahan bobot.
Perubahan bobot pada unit keluaran ditunjukkan pada persamaan 2.26. � =
+ Δ
; =1,2,…, ; =0,1,…,�
2.26 Perubahan bobot pada unit tersembunyi ditunjukkan pada persamaan 2.27.
� = +
Δ ; j=1,2,
…,� ; =1,2,…, 2.27
Setelah pelatihan jaringan selesai dilakukan, maka pengenalan pola dapat dilakukan. Pada pelatihan backpropagation, nilai output jaringan hanya diperoleh pada
fase propagasi maju langkah 4 dan 5. Fungsi aktivasi yang dipakai adalah fungsi sigmoid biner. Apabila dilakukan penggantian fungsi aktivasi, maka persamaan 2.18
dan persamaan 2.20 harus disesuaikan. Penggantian fungsi aktivasi akan mempengaruhi output
yang akan dihasilkan, oleh karena itu langkah selanjutnya langkah 6 dan langkah 7 harus disesuaikan.
2.7. Penelitian Terdahulu