Jaringan Saraf Tiruan LANDASAN TEORI

3. Pola data siklis Pola ini terjadi bila data dipengaruhi oleh fluktuasi ekonomi jangka panjang seperti yang berhubungan dengan siklus bisnis. Struktur datanya dapat digambarkan sebagai berikut. Gambar 2.3 Pola Data Siklis 4. Pola data trend Pola trend terjadi bila ada kenaikan atau penurunan sekuler jangka panjang dalam data. Struktur datanya dapat digambarkan sebagai berikut. Gambar 2.4 Pola Data Trend

2.3. Jaringan Saraf Tiruan

Jaringan saraf tiruan Artificial Neural Network adalah pemrosesan suatu informasi yang terinspirasi oleh sistem jaringan saraf biologis Smith, 2003. Jaringan saraf tiruan juga merupakan cabang ilmu kecerdasan buatan dan alat untuk memecahkan masalah terutama di bidang-bidang yang melibatkan pengelompokan data yang memiliki kecendrungan untuk menyimpan pengetahuan yang bersifat pengalaman dan membuatnya untuk siap digunakan Sutojo et al, 2011. Jumlah Data Waktu Jumlah Data Waktu Universitas Sumatera Utara Jaringan saraf tiruan disusun dengan asumsi yang sama dengan jaringan saraf biologis karena pengolahan informasi terjadi pada elemen-elemen pemrosesan neuron-neuron, sinyal antara dua buah neuron diteruskan melalui link koneksi, setiap link koneksi memiliki weight yang terasosiasi, dan setiap neuron menerapkan sebuah fungsi aktifasi terhadap input jaringan dengan tujuan agar dapat menentukan sinyal output Puspitaningrum, 2006. Input Layer Middle Layer Output Layer Input S igna l O ut put S igna l Gambar 2.5 Arsitektur Umum Jaringan Saraf Tiruan Multilayer Cara belajar jaringan saraf tiruan dilakukan seperti berikut ini. 1. Pada jaringan saraf tiruan, node atau unit-unit input di-input kan informasi yang sebelumnya telah diketahui hasil keluarannya. 2. Weights antar koneksi dalam suatu arsitektur diberi nilai awal dan kemudian jaringan tersebut dijalankan. Weights ini digunakan untuk belajar dan mengingat suatu informasi. 3. Pengaturan weights dilakukan secara terus-menerus dan menggunakan kriteria tertentu sampai diperoleh keluaran yang diharapkan. Tujuan jaringan saraf tiruan dilatih adalah untuk mencapai keseimbangan antara memorisasi dan generalisasi. Kemampuan memorisasi dilakukan untuk memanggil kembali secara sempurna pola yang telah dipelajari. Kemampuan generalisasi dilakukan untuk menghasilkan respons yang bisa diterima terhadap pola- pola input yang serupa dengan pola-pola sebelumnya yang telah dipelajari. Sehingga, jaringan saraf tiruan akan tetap memberikan tanggapan yaing baik berupa keluaran yang paling mendekati walaupun informasi yang di-input kan adalah informasi baru. Universitas Sumatera Utara Pada pembelajaran jaringan saraf tiruan, terdapat dua kelompok pembelajaran yaitu sebagai berikut. 1. Jaringan saraf tiruan umpan maju feed-forward networks, merupakan graf yang tidak mempunyai loop dan bergerak maju. Contoh jaringan umpan maju adalah single-layer perceptron, multilayer perceptron dan radial basis fuction. 2. Jaringan saraf tiruan umpan balik recurrent-feedback networks, merupakan graf yang memiliki loop koneksi balik. Contoh jaringan ini adalah competitive networks, kohonen’s SOM, hopfield network, dan ART model. Pada feed-forward networks, diterapkan fungsi aktivasi kedalam weight dan input dilakukan perhitungan yang hasilnya dianggap sebagai sinyal berbobot yang diteruskan kelapisan di atasnya. Sinyal yang berbobot tersebut menjadi input bagi lapisan selanjutnya. Fungsi aktivasi diterapkan pada lapisan tersebut untuk menghitung output jaringan. Proses ini dilakukan terus menerus sampai kondisi berhenti terpenuhi. Kelebihan-kelebihan yang diberikan oleh jaringan saraf tiruan adalah sebagai berikut Sutojo et al, 2011. 1. Belajar Adaptive yang merupakan kemampuan untuk mempelajari bagaimana melakukan pekerjaan berdasarkan data yang diberikan untuk pelatihan dan pengalaman awal. 2. Self-Organisation yang merupakan sebuah jaringan saraf tiruan dapat membuat representasi sendiri dari informasi yang diterimanya selama proses pembelajaran. 3. Real Time Operation yang merupakan perhitungan jaringan saraf tiruan dapat dilakukan secara parallel sehingga perangkat keras yang dirancang dan diproduksi secara khusus agar dapat mengambil keuntungan dan kemampuan ini. Kelemahan-kelemahan jaringan saraf tiruan adalah sebagai berikut Kasabov, 2007. Universitas Sumatera Utara 1 Kesulitan memilih arsitektur dari system karena jaringan saraf tiruan memiliki arsitektur yang tetap dengan jumlah neuron serta koneksi yang tetap sehingga akan sulit untuk beradaptasi dengan informasi yang baru. 2 Dalam mempelajari data baru, jaringan akan cenderung melupakan pengetahuan yang lama. 3 Pelatihan pada jaringan akan memerlukan banyak iterasi serta propagasi data melalui struktur jaringan sehingga perlu waktu yang lama. 4 Kurangnya fasilitas representasi pengetahuan pada jaringan. 2.3.1 Radial Basis Function Radial basis function RBF merupakan sebuah fungsi yang dinyatakan dengan nilai yang bergantung pada jarak antar argumen atau jarak antara nilai center Lukaszyk, 2004. Sama seperti multilayer perceptron MLP yang memiliki lapisan hidden dengan fungsi sigmoid yang dapat belajar dengan fungsi perkiraan, jaringan RBF menggunakan pendekatan yang sedikit berbeda. Menurut Bullinaria 2004 fitur utama RBF adalah sebagai berikut. 1. Terdapat dua layer yang bersifat feed-forward 2. Hidden node mengimplementasikan bagian RBF berupa fungsi Gaussian 3. Output node mengimplementasikan fungsi linear yang sama seperti MLP 4. Jaringan untuk pengujian dibagi menjadi dua bagian, yang pertama weight dari input ke hidden dan kemudian weight dari hidden ke output 5. Pengujian atau pembelajaran sangat cepat. 6. Interpolasi jaringan sangat baik Struktur jaringan RBF terdiri dari tiga layer yaitu input layer, hidden layer, dan output layer. Pada input layer terdiri dari source node unit sensor yang menghubungkan jaringan dengan lingkungannya. Pada layer kedua yang biasa disebut dengan hidden layer mengaplikasikan sebuah transformasi nonlinear dari input ke hidden, sehingga dibutuhkan sebuah metode unsupervised learning untuk mengaplikasikannya. Pada output layer berupa linear sehingga pada layer ini dibutuhkan metode supervised learning untuk prosesnya. Struktur jaringan RBF dapat dilihat pada Gambar 2.6. Universitas Sumatera Utara φ1 φ2 φ3 φj Input Layer Hidden Layer Output Layer X 1 X 2 X i H 1 H j Y w 1 w 2 w 3 w j w 1 ||X1 – C1|| Gambar 2.6 Arsitektur Jaringan Radial Basis Function Haykin, 2009 Pada jaringan RBF, hidden layer menggunakan biasanya fungsi Gaussian sebagai radial basis function. Fungsi Gaussian dinyatakan dengan, � = exp { −||� −� || 2 � 2 } 2.4 dimana φ j adalah fungsi Gaussian dan σ adalah standar deviasi dari fungsi Gaussian ke j dengan nilai center C j . Fungsi σ dinyatakan dengan Zhang Li, 2012, σ = �� √ 2.5 dimana d max merupakan nilai jarak atau distance terbesar pada hidden j dan C j merupaka nilai center pada hidden j. Metode unsupervised learning yang digunakan untuk jaringan RBF biasanya adalah pendekatan K-Means. Pembelajaran dengan metode tersebut dilakukan untuk menentukan nilai center dan standar deviasi dari variabel input pada setiap node di hidden layer. Setelah mendapatkan nilai pada hidden node tahap selanjutnya hidden layer ke output layer yang menggunakan metode supervised learning dengan pembelajaran yang sama dengan MLP. Pada training set, elemen-elemennya terdiri dari unsur nilai variabel independen input dan variabel dependen output. Sebagai contoh, hubungan variabel independen dengan fungsi aktivasi adalah sebagai berikut. = 2.6 Universitas Sumatera Utara dengan nilai x merupakan nilai vektor dan nilai y merupakan nilai skalar, dan nilai y bergantung kepada fungsi f dengan komposisi nilai x adalah sebagai berikutOrr, 1996. = [ . . . ] 2.7 2.3.1.1 Tahap Data Pre-processing Menurut Kaastra dan Boyd 1996 data pre-processing merupakan proses menganalisis dan mentransformasikan variabel input dan output untuk membantu jaringan mempelajari pola data. Data pre-processing dilakukan untuk: a. Meminimalisasikan data noise b. Menyoroti hubungan yang penting c. Mendeteksi tren d. Meratakan distribusi variabel Pada tahap pelatihan, data dikumpulkan untuk melakukan proses pelatihan. Data-data tersebut dirakit sebagai pra-proses time series data. Pada penelitian Hussein et al 2011, data tersebut direpresentasikan seperti Gambar 2.7. Gambar 2.7 Data Time Series Prediksi Harga Emas Pada Tahap Pelatihanuntuk Merepresentasikan Form Baris Waktu Timeline Hussein et al 2011 melakukan prediksi harga emas hari esok dengan menggunakan harga emas hari kemarin dan hari ini. Sehingga harga emas hari esok adalah output dan harga emas hari kemarin dan hari ini merupakan input. Misalkan input yang digunakan adalah 2 node dan menghasilkan 1 output. Penjelasan pemakaian data input dan output dapat dilihat pada Tabel 2.1 Universitas Sumatera Utara Tabel 2.1 Variabel Data yang digunakan Harga Penjelasan Variabel Harga kemarin Harga n dengan n = 1,2,3…. Harga hari ini Harga n+1 dengan n = 1,2,3…. Harga esok hari Harga n+2 dengan n = 1,2,3…. Dan tahapan prediksi harga emas dapat dilihat pada Gambar 2.8 Gambar 2.8 Langkah-langkah Proses Pelatihan untuk Input dan Target Vektor Matriks Hussein et al, 2011 Universitas Sumatera Utara Pada gambar 2.11, vector matriks input terdiri dari baris dan kolom. Pada baris input, data yang ditunjukkan merupakan data yang digunakan untuk mencari nilai prediksi sedangkan untuk kolom sama seperti pada vector matriks output merupakan data yang akan digunakan untuk proses jaringan selanjutnya. 2.3.1.2 Tahap I: Input Layer ke Hidden Layer Dalam mendesain jaringan RBF, dibutuhkan suatu metode untuk menghitung nilai parameter dari unit Gaussian yang diperlukan di hidden layer dengan data yang tidak berlabel. Oleh karena itu diperlukan sebuah metode unsupervised learning yang berupa metode K-Means. Metode K-Means merupakan salah satu bentuk metode pemetaan pada dirinya sendiri Self Organizing Map yang juga dikembangkan dalam permodelan NN. Tahapan algoritma K-means clustering dapat dilakukan seperti yang di Gambar 2.9. MULAI Menentukan Banyaknya Clusterk Menentukan Center Nilai Center Berubah ? Menghitung Jarak dari Center Mengelompokkan Data Berdasarkan Jarak Terdekat SELESAI Ya Tidak Gambar 2.9 Flowchart Algoritma K-Means Clustering Universitas Sumatera Utara Pertama kali yang dilakukan dalam algoritma K-means clustering adalah menentukan kelompok atau cluster dengan syarat jumlah kelompok yang akan dibuat harus lebih kecil dengan jumlah data yang digunakan, kelompok pada jaringan radial basis function yang dimaksud adalah jumlah hidden yang akan digunakan. Kedua, menentukan nilai center secara acak. Ketiga, menghitung jarak data ke center digunakan Euclidean norm. Nilai Euclidean norm dapat dinyatakan dengan Haykin,2009, dX i , C j = ||X i – C j || 2 2.8 dengan nilai Xi adalah nilai vector input dari data ke i dan nilai Cj adalah nilai vector dari center hidden ke j. Keempat, kelompokkan data sesuai dengan kelompoknya, yaitu data yang memiliki jarak terpendek pada masing-masing hidden jumlah kelompok = jumlah hidden. Misalkan jumlah hidden adalah dua sehingga jumlah kelompok dua, ketika dx 1 ,c 1 dx 1 ,c 2 maka nilai x 1 masuk ke kelompok 1 dan lakukan hal yang sama dengan data selanjutnya Kelima, memperbaharui nilai center dengan cara merata-ratakan nilai anggota kelompok yang dapat dinyatakan sebagai berikut. = × ∑ = 2.9 dengan n i merupakan jumlah anggota kelompok. Lakukan langkah pertama sampai kelima hingga nilai center tidak berubah lagi. Metode K-Means memiliki beberapa keuntungan penggunaan pada jaringan RBF ini, yaitu 1. Algoritma K-Means merupakan algoritma dengan komputasi yang efisien karena seluruh yang kompleks dijadikan linear pada angka cluster 2. Ketika cluster dengan lengkap didistribusikan datanya, maka akan dengan tepat di-recovery oleh algoritma tersebut. Universitas Sumatera Utara 2.3.1.2 Tahap II: Hidden Layer ke Output Layer Setelah K-Means digunakan pada input layer ke hidden layer maka proses selanjutnya hidden layer ke output layer yang merupakan pembelajaran terawasi yang sama seperti penggunaan pada MLP, output layer dilatih dengan menggunakan Least Means Square. Inisialisasi weight pada hidden layer sampai output layer dilakukan inisialisasi weight secara acak. Lalu dilakukan penghitungan seluruh output Y k pada jaringan yang dinyatakan dengan Haykin,2009 , � = ∑ � � = 2.10 dimana, Y k = nilai node pada output k dari node hidden ke j L = nomor dari data pelatihan φ j = fungsi Gaussian pada node j w kj = nilai weight output dari node ke j pada hidden layer ke output k Setelah itu dilakukan langkah selanjutnya untuk menghitung error atau selisih hasil pada output Y k yang dinyatakan dengan, � = − � 2.11 dimana, δ k = unit kesalahan yang akan dipakai dalam perubahan weight layar t k = hasil normalisasi data dari data input. Y k = output pada node k Setelah tingkat kesalahan didapat tidak sesuai dengan yang diinginkan maka dihitung suku perubahan weight w kj yang akan dipakai nanti pada saat merubah weight w kj dengan laju percepatan α yang dinyatakan dengan, ∆ = �� � 2.12 Pada fase ini tidak dilakukan perhitungan kesalahan pada hidden layer. Hal ini dilakukan karena pada saat input layer ke hidden layer sudah dilakukan fungsi Universitas Sumatera Utara objektif dari algoritma K-means sehingga nilai yang didapat sudah sesuai. Lalu tahap selanjutnya adalah tahap perubahan weight dengan menghitung semua perubahan weight w kj yang dinyatakan dengan, = + ∆ 2.13 Proses tersebut terus dilakukan sampai weightw kj tidak berubah lagi. 2.3.2. Menghitung Nilai Error Menghitung nilai error sangat penting untuk melihat hasil pelatihan pada jaringan sarat tiruan. Hal ini dikarenakan pada tahap pelatihan nilai error yang diharapkan adalah nilai yang paling kecil. Output error adalah perhitungan error yang merupakan hasil dari perbedaan nilai target dan nilai output yang didapat. Nilai ini akan digunakan untuk menghitung nilai error. The Means Absolute Percentage Error MAPE merupakan metode perhitungan error untuk mengevaluasi metode peramalan. Pendekatan ini menghitung kesalahan peramalan yang besar karena nilai output error yang didapat dari perbedaan antara target dan output dibagi nilai target. Perhitungan nilai MAPE dapat dinyatakan sebagai berikut. �� � = ∑ � − ̂ � � × = 2.14

2.4. Penelitian Terdahulu