Normalisasi Data Jaringan Saraf Tiruan

19 Correlation = ∑ ∑ � , [ − � − � √� � ] �− = �− = 2.6 Dimana � dan � adalah perhitungan mean sedangkan � dan � adalah perhitungan variance. Perhitungan mean ditunjukkan pada persamaan 2.7 dan persamaan 2.8. Perhitungan variance ditunjukkan pada persamaan 2.9 dan persamaan 2.10. � = ∑ ∑ � , �− = �− = 2.7 � = ∑ ∑ � , �− = �− = 2.8 � = ∑ ∑ � , − � �− = �− = 2.9 � = ∑ ∑ � , − � �− = �− = 2.10

2.5. Normalisasi Data

Normalisasi adalah teknik pra pengolahan data yaitu dengan mentransformasikan nilai atribut suatu dataset sehingga berada pada range tertentu, misalnya diantara 0 sampai 1. Normalisasi dapat digunakan dalam persoalan klasifikasi data seperti neural network dan clustering Atomi, 2012. Beberapa teknik normalisasi data adalah sebagai berikut. 2.5.1. Normalisasi Min-Max Normalisasi Min-Max adalah normalisasi data dengan menskalakan data secara linier ke dalam range yang ditentukan. Persamaan normalisasi Min-Max ditunjukkan pada persamaan 2.11. v’ = − � � − � _ � − _ � + _ � 2.11 Universitas Sumatera Utara 20 Dimana min A dan max A adalah nilai – nilai minimum dan maksimum dari atribut A, dan v adalah nilai atribut A yang akan dipetakan menjadi v’ dalam rentang [new_max A ; new_min A ]. 2.5.2. Normalisasi Z-Score Normalisasi Z-Score menggunakan mean dan standar deviasi dalam menormalisasi nilai – nilai suatu atribut. Persamaan normalisasi Z-Score ditunjukkan pada persamaan 2.12. v’ = − � � � � 2.12 Dimana v adalah nilai atribut A, � � adalah mean dari A dan � � adalah standar deviasi dari A. 2.5.3. Normalisasi Decimal Scaling Normalisasi decimal scaling adalah normalisasi data dengan memindahkan titik desimal dari nilai suatu atribut. Besar pergeseran titik desimal ditentukan oleh nilai absolut maksimum dalam suatu atribut. Nilai v dari suatu atribut dinormalisasi menjadi v’ dengan persamaan 2.13. v’ = 2.13 Dimana m adalah nilai integer terkecil sehingga Max | v’| 1.

2.6. Jaringan Saraf Tiruan

Jaringan saraf tiruan JST adalah sistem yang memiliki komputasi dengan kesamaan tertentu dengan cara kerja sistem saraf manusia. JST mengadaptasi cara kerja sistem saraf manusia dengan beberapa asumsi yaitu sebagai berikut Darmawan, 2010. 1. Unit pemroses informasi disebut neuron. 2. Sinyal ditransmisikan antar neuron melalui penghubung sinapsis. 3. Setiap penghubung memiliki bobot dimana akan dilakukan operasi perkalian antara sinyal yang disalurkan dengan bobot. Universitas Sumatera Utara 21 4. Setiap neuron memiliki fungsi aktivasi. Fungsi aktivasi adalah fungsi yang memproses input sehingga menghasilkan output tertentu. Komponen utama pada jaringan saraf tiruan adalah sebagai berikut. 1. Neuron Neuron atau node merupakan tempat untuk memproses informasi. Setiap neuron akan menerima input, memproses input lalu menghasilkan sebuah output Purnamasari, 2013. 2. Bobot Bobot atau weight adalah nilai yang merepresentasikan koneksi antarneuron Purnamasari, 2013. Pada setiap penghubung akan dilakukan operasi perkalian bobot dengan sinyal yang melewati penghubung tersebut. 3. Fungsi Aktivasi Fungsi aktivasi adalah fungsi yang menentukan output dari suatu neuron berdasarkan sinyal masukan yang diterima. Setiap neuron akan menerapkan fungsi aktivasi Wicaksono, 2008. 4. Layer Layer adalah lapisan pada JST. Arsitektur jaringan JST terdiri atas jaringan layer tunggal dan jaringan layer jamak. Jaringan layer tunggal terdiri dari lapisan input dan lapisan output. Sedangkan jaringan layer jamak terdiri atas lapisan input, lapisan output serta lapisan tersembunyi yang terletak di antara lapisan input dan lapisan output. Jaringan layer tunggal dan jaringan layer jamak dapat dilihat pada Gambar 2.16. a b Gambar 2.16. a Jaringan layer tunggal b Jaringan layer jamak Universitas Sumatera Utara 22 Pemrosesan informasi pada neuron di dalam JST diadaptasi dari cara kerja neuron sistem saraf manusia. Hal tersebut dapat ditunjukkan pada Gambar 2.17. Sejumlah p buah input ditambah input bias akan dikalikan dengan weight yang bersesuaian. Kemudian akan dilakukan penjumlahan terhadap seluruh hasil perkalian tersebut summing junction. Lalu hasil dari penjumlahan tersebut akan diproses oleh fungsi aktivasi sehingga output tertentu dapat dihasilkan. Gambar 2.17. Model tiruan neuron pada jaringan saraf tiruan Hajek, 2005 JST memiliki metode pembelajaranpelatihan untuk memproses input yaitu supervised learning memilki target dan unsupervised learning tidak memiliki target. Pada pembelajaran supervised learning, target akan ditentukan dan kemudian nilai input dan output akan dilatih hingga nilai error selisih output dengan target dapat seminimal mungkin Wicaksono, 2008. Contoh metode pembelajaran supervised learning yaitu metode backpropagation. 2.6.1. Fungsi aktivasi Di dalam JST, fungsi aktivasi berperan dalam menentukan nilai output. Beberapa fungsi aktivasi yang dapat digunakan di dalam JST adalah sebagai berikut. 1. Fungsi step Fungsi step menghasilkan output bernilai 1 atau 0. Fungsi step menghasilkan output 1 jika nilai input = 0 sebaliknya fungsi tersebut akan menghasilkan output 0 jika nilai input 0. Fungsi step ditunjukkan pada persamaan 2.14. Universitas Sumatera Utara 23 = { , ≥ , 2.14 2. Fungsi sign Fungsi sign menghasilkan output bernilai 1 atau -1. Fungsi sign ditunjukkan pada persamaan 2.15. = { , ≥ − , 2.15 3. Fungsi sigmoid biner Fungsi sigmoid biner menghasilkan nilai output di dalam range yang kontinu yaitu di antara 0 dan 1. Fungsi sigmoid biner ditunjukkan pada persamaan 2.16. = + − 2.16 Fungsi step, fungsi sign dan fungsi sigmoid biner dapat direpresentasikan ke dalam bentuk grafik yang dapat dilihat pada Gambar 2.18. a b c Gambar 2.18. a Fungsi step b fungsi sign c fungsi sigmoid biner 2.6.2. Backpropagation Backpropagation merupakan salah satu metode pelatihan jaringan saraf tiruan yang terawasi supervised learning yang melakukan pengubahan bobot – bobot penghubung antarneuron pada lapisan tersembunyi Priyani, 2009. Backpropagation berusaha menyeimbangkan kemampuan jaringan dalam mengenali pola selama waktu pelatihan dan melatih jaringan agar menghasilkan output yang benar berdasarkan pola masukan Universitas Sumatera Utara 24 yang serupa tidak sama dengan pola yang dipakai selama pelatihan Purnamasari, 2013. Metode backpropagation terdiri dari dua fase, yaitu fase perambatan maju feed forward dan fase arah mundur backward. Metode backpropagation melakukan pengubahan nilai bobot-bobot pada fase arah mundur backward dengan menggunakan error output . Fase perambatan maju feed forward harus dilalui terlebih dahulu untuk dapat memperoleh nilai error tersebut. Pada fase perambatan maju, setiap neuron diaktifkan oleh fungsi aktivasi Priyani, 2009. Arsitektur jaringan backpropagation dapat terbentuk dari arsitektur jaringan layer jamak seperti ditunjukkan pada Gambar 2.19, dimana terdapat n buah masukan ditambah satu buah bias, lapisan tersembunyi yang terdiri dari p neuron ditambah satu buah bias dan lapisan keluaran yang terdiri dari m neuron. Gambar 2.19. Arsitektur backpropagation Purnamasari, 2013 Berikut adalah algoritma backpropagation untuk jaringan dengan satu layer tersembunyi dengan fungsi aktivasi yang digunakan adalah fungsi sigmoid biner Purnamasari, 2013. Langkah 0: Inisialisasi semua bobot gunakan bilangan kecil secara acak. Langkah 1: Jika belum terdapat kondisi untuk berhenti, lakukan langkah 2-9. Langkah 2: Lakukan langkah 3-8 untuk setiap pasang data pelatihan. Universitas Sumatera Utara 25 Fase I: Propagasi Maju feed forward Langkah 3: Tiap unit masukan menerima sinyal dan meneruskan sinyal tersebut ke unit selanjutnya lapisan tersembunyi. Langkah 4: Hitung nilai _ pada unit tersembunyi dengan menggunakan persamaan 2.17. Kemudian hitung nilai output unit tersembunyi = 1,2,…,� dengan menggunakan persamaan 2.18. Nilai output diperoleh dengan menggunakan fungsi aktivasi sigmoid biner. _ = + ∑ = 2.17 = _ = + − _ �� 2.18 Langkah 5: Hitung seluruh output jaringan pada unit = 1,2,…, . Hitung nilai _ pada unit keluaran dengan menggunakan persamaan 2.19. Kemudian hitung seluruh output jaringan pada unit = 1,2,…, dengan menggunakan persamaan 2.20. Nilai output diperoleh dengan menggunakan fungsi aktivasi sigmoid biner. _ = + ∑ � = 2.19 = _ = + − _ �� 2.20 Fase II: Propagasi Mundur backward Langkah 6: Hitung faktor � di unit keluaran = 1,2,…, dengan menggunakan persamaan 2.21 . � = − ′ _ = − − 2.21 � merupakan unit kesalahan yang digunakan untuk mengubah bobot layer pada langkah selanjutnya langkah 7. Kemudian hitung suku perubahan bobot yang akan digunakan untuk memperoleh bobot yang baru dengan learning rate � menggunakan persamaan 2.22. Universitas Sumatera Utara 26 Δ = � � ; = , , … , ; = , , … , � 2.22 Langkah 7: Hitung penjumlahan �_ j pada unit tersembunyi = 1,2,…,� dengan menggunakan persamaan 2.23. Hitung faktor � pada unit tersembunyi menggunakan persamaan 2.24. Kemudian hitung suku perubahan bobot yang akan digunakan untuk memperoleh nilai bobot yang baru dengan menggunakan persamaan 2.25. �_ j = ∑ � k kj m k= 2.23 � = �_ ′ _ = �_ 1 − 2.24 � = � � ; = 1,2,…,� ; = 0,1,…, 2.25 Fase III: Perubahan Bobot Langkah 8: Hitung semua perubahan bobot. Perubahan bobot pada unit keluaran ditunjukkan pada persamaan 2.26. � = + Δ ; =1,2,…, ; =0,1,…,� 2.26 Perubahan bobot pada unit tersembunyi ditunjukkan pada persamaan 2.27. � = + Δ ; j=1,2, …,� ; =1,2,…, 2.27 Setelah pelatihan jaringan selesai dilakukan, maka pengenalan pola dapat dilakukan. Pada pelatihan backpropagation, nilai output jaringan hanya diperoleh pada fase propagasi maju langkah 4 dan 5. Fungsi aktivasi yang dipakai adalah fungsi sigmoid biner. Apabila dilakukan penggantian fungsi aktivasi, maka persamaan 2.18 dan persamaan 2.20 harus disesuaikan. Penggantian fungsi aktivasi akan mempengaruhi output yang akan dihasilkan, oleh karena itu langkah selanjutnya langkah 6 dan langkah 7 harus disesuaikan.

2.7. Penelitian Terdahulu