Jaringan Syaraf Tiruan TINJAUAN PUSTAKA

5

II. TINJAUAN PUSTAKA

2.1. Jaringan Syaraf Tiruan

2.1.1. Sejarah Jaringan Syaraf Tiruan Jaringan syaraf tiruan JST telah dikembangkan sejak tahun 1940. Pada tahun 1943 McCulloch dan W.H.Pitts memperkenalkan pemodelan matematis neuron. Tahun 1949, Hebb mencoba mengkaji proses belajar yang dilakukan oleh neuron. Teori ini dikenal sebagai Hebbian Law. Tahun 1958, Rosenblatt memperkenalkan konsep perseptron suatu jaringan yang terdiri dari beberapa lapisan yang saling berhubungan melalui umpan maju feed foward. Konsep ini dimaksudkan untuk memberikan ilustrasi tentang dasar-dasar intelejensia secara umum. Hasil kerja Rosenblatt yang sangat penting adalah perceptron convergence theorem tahun 1962 yang membuktikan bahwa bila setiap perseptron dapat memilah-milah dua buah pola yang berbeda maka siklus pelatihannya dapat dilakukan dalam jumlah yang terbatas. ANN-A neural network tutorial, html doc. 2010. Pada tahun 1960 Widrow dan Hoff menemukan ADALINE Adaptive Linear Neuruon. Teknik ini dapat beradaptasi dan beroperasi secara linier. Penemuan ini telah memperlebar aplikasi jaringan syaraf tiruan tidak hanya untuk pemilihan pola, tetapi juga untuk pengiriman sinyal khususnya dalam bidang adaptive filtering. ANN-A neural network tutorial, html doc. 2010. Namun, Tahun 1969, Minsky dan Papert melontarkan suatu kritikan tentang kelemahan perseptronnya Rosenblatt di dalam memilah-milah pola yang tidak linier. Sejak saat itu penelitian di bidang jaringan syaraf tiruan telah mengalami masa vakum untuk kurang lebih satu dasawarsa. Tahun 1982, Hopfield telah memperluas aplikasi JST untuk memecahkan masalah-masalah optimasi. Hopfield telah berhasil memperhitungkan fungsi energi ke dalam jaringan syaraf yaitu agar jaringan memiliki kemampuan untuk mengingat atau memperhitungkan suatu obyek dengan obyek yang pernah dikenal atau diingat sebelumnya associative memory. Konfigurasi jaringan yang demikian dikenal sebagai recurrent network. Salah satu aplikasinya adalah TravellingSalesman Problem TSP. Artificial Neural Networks -A neural network tutorial, 2010 6 Pada tahun 1986 Rumelhart, Hinton dan William menciptakan suatu algoritma belajar yang dikenal sebagai propagasi balik backpropagation. Bila algoritma ini diterapkan pada perseptron yang memiliki lapisan banyak multi layer perceptron, maka dapat dibuktikan bahwa pemilahan pola-pola yang tidak linier dapat diselesaikan sehingga dapat mengatasi kritikan yang dilontarkan oleh Minsky dan Papert. ANN-A neural network tutorial, html doc. 2010. 2.1.2. Defenisi Jaringan Syaraf Tiruan JST merupakan sistem pemroses informasi yang memiliki karakteristik mirip dengan jaringan syaraf biologi Siang, 2005. Menurut Sekarwati 2005, JST merupakan sistem komputasi yang didasarkan atas pemodelan sistem syaraf biologis neurons melalui pendekatan dari sifat-sifat komputasi biologis biological computation. Menurut Subiyanto 2002, JST adalah membuat model sistem komputasi yang dapat menirukan cara kerja jaringan syaraf biologi, sedangkan menurut Siang 2005, JST dibentuk sebagai generalisasi model matematika dari jaringan syaraf biologi dengan asumsi sebagai berikut. a. Pemrosesan informasi terjadi pada banyak elemen sederhana neurons. b. Sinyal dikirimkan diantara neuron-neuron melalui penghubung penghubung. c. Penghubung antar neuron memiliki bobot yang akan memperkuat atau memperlemah sinyal. d. Untuk menentukan keluaran output, setiap neuron menggunakan fungsi aktivasi yang dikenakan pada penjumlahan masukan input yang diterima. Besarnya keluaran output ini selanjutnya dibandingkan dengan suatu batas ambang, dimana Neuron adalah unit pemroses informasi yang menjadi dasar dalam pengoperasian jaringan syaraf tiruan Siang 2005. Neuron terdiri dari 3 elemen pembentuk sebagai berikut. a. Himpunan unit-unit yang dihubungkan dengan jalur koneksi. b. Suatu unit penjumlah yang akan menjumlahkan masukan-masukan sinyal yang sudah dikalikan dengan bobotnya. 7 c. Fungsi aktivasi yang akan menentukan apakah sinyal dari input neuron akan diteruskan ke neuron lain ataukah tidak. JST ditentukan oleh 3 hal sebagai berikut. a. Pola hubungan antar neuron disebut arsitektur jaringan . b. Metode untuk menentukan bobot penghubung disebut algoritma traininglearning pelatihanbelajar c. Fungsi aktivasi. Di dalam JST, istilah simpul node sering digunakan untuk menggantikan neuron, dimana setiap simpul pada jaringan menerima atau mengirim sinyal dari atau ke simpul-simpul lainnya. Pengiriman sinyal disampaikan melalui penghubung. Kekuatan hubungan yang terjadi antara setiap simpul yang saling terhubung dikenal dengan nama bobot. Model-model JST ditentukan oleh arsitektur jaringan serta algoritma pelatihan. Arsitektur biasanya menjelaskan arah perjalanan sinyal atau data di dalam jaringan, sedangkan algoritma belajar menjelaskan bagaimana bobot koneksi harus diubah agar pasangan masukan-keluaran yang diinginkan dapat tercapai. Perubahan harga bobot koneksi dapat dilakukan dengan berbagai cara, tergantung pada jenis algoritma pelatihan yang digunakan. Dengan mengatur besarnya nilai bobot ini diharapkan bahwa kinerja jaringan dalam mempelajari berbagai macam pola yang dinyatakan oleh setiap pasangan masukan-keluaran akan meningkat. W R 1 R W R 2 R W R 3 R Gambar 1, Sel Jaringan Syaraf Tiruan Pada Gambar 1 diperlihatkan sebuah sel syaraf tiruan sebagai elemen penghitung. Simpul Y menerima masukan dari neuron x1, x2 dan x3 dengan X 1 X 2 X 3 Y 8 bobot hubungan masing-masing adalah w1, w2 dan w3. Argumen fungsi aktivasi adalah net jejaring masukan kombinasi linear masukan dan bobotnya. Ketiga sinyal simpul yang ada dijumlahkan net = x1w1 + x2w2 + x3w3 . Besarnya sinyal yang diterima oleh Y mengikuti fungsi aktivasi y = fnet. Apabila nilai fungsi aktivasi cukup kuat, maka sinyal akan diteruskan. Nilai fungsi aktivasi keluaran model jaringan juga dapat dipakai sebagai dasar untuk merubah bobot. 2.1.3. Arsitektur Jaringan Berdasarkan arsitekturnya, model JST tergolong menjadi: a. Jaringan Layar Tunggal Single Layer Network Pada jaringan ini, sekumpulan masukan neuron dihubungkan langsung dengan sekumpulan keluarannya. Sinyal mengalir searah dari layar lapisan masukan sampai layar lapisan keluaran. Setiap simpul dihubungkan dengan simpul lainnya yang berada diatasnya dan dibawahnya, tetapi tidak dengan simpul yang berada pada lapisan yang sama. Model yang masuk kategori ini antara lain : ADALINE, Hopfield, Perceptron, LVQ, dan lain-lain. Pada Gambar 2 diperlihatkan arsitektur jaringan layar tunggal dengan n buah masukan x1, x2,..., xn dan m buah keluaran y1, y2,..., ym W R 11 W R 12 R W R 13 R W R 21 W R 22 W R 23 W R 3n W R 3n W R 3n Gambar 2, Jaringan Layar Tunggal X 1 X 2 X n Y m Y 2 Y 1 9 b. Jaringan Layar Jamak Multiple Layer Network Jaringan ini merupakan perluasan dari jaringan layar tunggal. Dalam jaringan ini, selain unit masukan dan keluaran, ada unit-unit lain sering disebut layar tersembunyi. Dimungkinkan pula ada beberapa layar tersembunyi. Model yang termasuk kategori ini antara lain : MADALINE, backpropagation. Pada Gambar 3 diperlihatkan jaringan dengan n buah unit masukan x1, x2,..., xn, sebuah layar tersembunyi yang terdiri dari m buah unit z1,z2,..., zm dan 1 buah unit keluaran. W R 11 R W R 21 W R n1 R W R 11 W R 12 W R 22 R W R 12 W R n2 W R 1n R W R 1m W R 2n W R nn Gambar 3, Jaringan Layar Jamak c. Jaringan Recurrent Model jaringan recurrent recurrent network mirip dengan jaringan layar tunggal ataupun jamak. Hanya saja, ada simpul keluaran yanng memberikan sinyal pada unit masukan sering disebut feedback loop. Dengan kata lain sinyal mengalir dua arah, yaitu maju dan mundur. Contoh : Hopfield network, Jordan network, Elmal network. 2.1.4. Algoritma Belajar atau Pelatihan Ide dasar JST adalah konsep belajar atau pelatihan. Jaringan-jaringan belajar melakukan generalisasi karakteristik tingkah laku objek. Algoritma pelatihan artinya membentuk pemetaan fungsi yang menggambarkan hubungan antara X 1 Y Z 1 Z 2 Z m X n X 2 10 vektor masukan dan vektor keluaran Sekarwati 2005:4. Biasanya diberikan contoh yang cukup penting dalam membangun pemetaan tersebut. Walaupun untuk pasangan masukan dan keluaran yang belum pernah digambarkan sebelumnya. Untuk dapat menyelesaikan suatu permasalahan, jaringan syaraf tiruan memerlukan algoritma belajar atau pelatihan yaitu bagaimana sebuah konfigurasi jaringan dapat dilatih untuk mempelajari data historis yang ada. Dengan pelatihan ini, pengetahuan yang terdapat pada data dapat diserap dan direpresentasikan oleh harga-harga bobot koneksinya. Menurut Siang 2005:30 algoritma belajar atau pelatihan digolongkan menjadi sebagai berikut. a. Dengan Supervisi Supervised Training Dalam pelatihan dengan supervisi, terdapat sejumlah pasangan data masukan-target keluaran yang dipakai untuk melatih jaringan. Pada setiap pelatihan, suatu masukan diberikan ke jaringan. Jaringan akan memproses dan mengeluarkan keluaran. Selisih antara keluaran jaringan dengan target keluaran yang diinginkan merupakan kesalahan yang terjadi. Jaringan akan memodifikasi bobot sesuai dengan kesalahan tersebut. Model yang menggunakan pelatihan dengan supervisi antara lain : Perceptron, ADALINE, MADALINE, Backpropagation, LVQ. b. Tanpa Supervisi Unsupervised Training Dalam pelatihannya, perubahan bobot jaringan dilakukan berdasarkan parameter tertentu dan jaringan dimodifikasi menurut ukuran parameter tersebut. Model yang menggunakan pelatihan ini adalah model jaringan kompetitif. 2.1.5. Jaringan Syaraf Tiruan Backpropagation Backpropagation merupakan model JST dengan layar jamak. Seperti halnya model JST lainnya, backpropagation melatih jaringan untuk mendapatkan keseimbangan antara kemampuan jaringan untuk mengenali pola yang digunakan selama pelatihan serta kemampuan jaringan untuk memberikan respon yang benar terhadap pola masukan yang serupa tapi tidak sama dengan pola yang dipakai selama pelatihan. 11 a. Fungsi Aktivasi pada Backpropagation Dalam backpropagation, fungsi aktivasi yang dipakai harus memenuhi beberapa syarat sebagai berikut. 1. Kontinyu. 2. Terdiferensial dengan mudah. 3. Merupakan fungsi yang tidak turun. Salah satu fungsi yang memenuhi ketiga syarat tersebut sehingga sering dipakai adalah fungsi sigmoid biner yang memiliki range 0,1. Fungsi sigmoid biner didefinisikan sebagai berikut. ……………...1 ………………….2 Fungsi lain yang sering dipakai adalah fungsi sigmoid bipolar dengan range -1,1 yang didefenisikan sebagai berikut. ……………….3 ……………….4 Fungsi sigmoid memiliki nilai maksimum 1. Untuk pola yang targetnya lebih dari 1, pola masukan dan keluaran harus terlebih dahulu ditransformasi sehingga semua polanya memiliki range yang sama seperti fungsi sigmoid yang dipakai. Alternatif lain adalah menggunakan fungsi aktivasi sigmoid hanya pada layar yang bukan layar keluaran. Pada layar keluaran, fungsi aktivasi yang dipakai adalah fungsi identitas f x = x . b. Pelatihan Backpropagation JST Propagasi Balik Seperti halnya jaringan syaraf yang lain, pada jaringan feedfoward umpan maju pelatihan dilakukan dalam rangka perhitungan bobot sehingga pada akhir pelatihan akan diperoleh bobot-bobot yang baik. Selama proses pelatihan, bobot-bobot diatur secara iteratif untuk meminimumkan galat error yang terjadi. Galat dihitung berdasarkan rata-rata kuadrat kesalahan MSE. Rata-rata kuadrat galat juga dijadikan dasar perhitungan unjuk kerja fungsi aktivasi. Sebagian besar pelatihan untuk jaringan feedfoward umpan maju menggunakan gradien dari fungsi aktivasi untuk menentukan bagaimana mengatur bobot-bobot dalam rangka 12 meminimumkan kinerja. Gradien ini ditentukan dengan menggunakan suatu teknik yang disebut backpropagation. Pada dasarnya, algoritma pelatihan standar backpropagation akan menggerakkan bobot dengan arah gradien negatif. Prinsip dasar dari algoritma backpropagation adalah memperbaiki bobot-bobot jaringan dengan arah yang membuat fungsi aktivasi menjadi turun dengan cepat. Pelatihan backpropagation meliputi 3 fase sebagai berikut; 1.Fase 1, yaitu propagasi maju. Pola masukan dihitung maju mulai dari layar masukan hingga layar keluaran menggunakan fungsi aktivasi yang ditentukan. 2.Fase 2, yaitu propagasi mundur. Selisih antara keluaran jaringan dengan target yang diinginkan merupakan galat yang terjadi. Galat yang terjadi itu dipropagasi mundur. Dimulai dari garis yang berhubungan langsung dengan unit- unit di layar keluaran. 3.Fase 3, yaitu perubahan bobot. Modifikasi bobot untuk menurunkan galat yang terjadi. Ketiga fase tersebut diulang-ulang terus hingga kondisi penghentian dipenuhi. Algoritma pelatihan untuk jaringan backpropagation dengan satu layar tersembunyi dengan fungsi aktivasi sigmoid biner adalah sebagai berikut. a Langkah 0 Inisialisasi semua bobot dengan bilangan acak kecil. b Langkah 1 Jika kondisi penghentian belum dipenuhi, lakukan langkah 2-8. c Langkah 2 Untuk setiap pasang data pelatihan, lakukan langkah 3-8. d Langkah 3 langkah 3-5 merupakan fase 1 Tiap unit masukan menerima sinyal dan meneruskannya ke unit tersembunyi diatasnya. e Langkah 4 13 Hitung semua keluaran di unit tersembunyi z R j R j = 1, 2,..., p. ………………….6 f Langkah 5 Hitung semua keluaran jaringan di unit keluaran y R k R k = 1, 2,...,m. …………………7 …………………8 g Langkah 6 langkah 6-7 merupakan fase 2 Hitung faktor δ unit keluaran berdasarkan kesalahan di setiap unit keluaran y R k R k = 1, 2,..., m. ………9 t R k R = target keluaran δ R k R = merupakan unit kesalahan yang akan dipakai dalam perubahan bobot layar dibawahnya. Hitung perubahan bobot w R kj R dengan laju pemahaman α K = 1, 2, …, m ; j = 0, 1, …p h Langkah 7 Hitung faktor δ unit tersembunyi berdasarkan kesalahan di setiap unit tersembunyi z R j R j = 1, 2, ..., p. ……………………11 Factor δ unit tersembunyi. …………12 Hitung suku perubahan bobot V R ji ………………………….13 J = 1, 2, …, p; i = 1, 2, …,n i Langkah 8 fase 3 Hitung semua perubahan bobot. Perubahan bobot garis yang menuju ke unit keluaran, yaitu: 14 k = 1, 2,…,m; j = 0, 1,…,p…14 Perubahan bobot garis yang menuju ke uit tersembunyi, yaitu: j = 1, 2,…,p ; i = 0, 1,…,n ….15 Parameter α merupakan laju pemahaman yang menentukan kecepatan iterasi. Nilai α terletak antara 0 dan 1 0 ≤ α ≤ 1. Semakin besar harga α , semakin sedikit iterasi yang dipakai. Akan tetapi jika harga α terlalu besar, maka akan merusak pola yang sudah benar sehingga pemahaman menjadi lambat. Satu siklus pelatihan yang melibatkan semua pola disebut epoch. Pemilihan bobot awal sangat mempengaruhi jaringan syaraf tiruan dalam mencapai minimum global atau mungkin lokal saja terhadap nilai galat dan cepat tidaknya proses pelatihan menuju kekonvergenan. Apabila bobot awal terlalu besar maka masukan input ke setiap lapisan tersembunyi atau lapisan keluaran output akan jatuh pada daerah dimana turunan fungsi sigmoidnya akan sangat kecil. Apabila bobot awal terlalu kecil, maka masukan ke setiap lapisan tersembunyi atau lapisan keluaran akan sangat kecil. Hal ini akan menyebabkan proses pelatihan berjalan sangat lambat. Biasanya bobot awal diinisialisasi secara random dengan nilai antara -0.5 sampai 0.5 atau -1 sampai 1 atau interval yang lainnya. Setelah pelatihan selesai dilakukan, jaringan dapat dipakai untuk pengenalan pola. Dalam hal ini, hanya propagasi maju langkah 4 dan 5 saja yang dipakai untuk menentukan keluaran jaringan. 2.1.6. Backpropagation Momentum Pada standar backpropagation, perubahan bobot didasarkan atas gradien yang terjadi untuk pola yang dimasukkan saat itu. Modifikasi yang dapat dilakukan adalah melakukan perubahan bobot yang didasarkan atas arah gradien pola terakhir dan pola sebelumnya disebut momentum yang dimasukkan. Jadi tidak hanya pola masukan terakhir saja yang diperhitungkan. Penambahan momentum dimaksudkan untuk menghindari perubahan bobot yang mencolok akibat adanya data yang sangat berbeda dengan yang lain outlier. Apabila beberapa data terakhir yang diberikan ke jaringan memiliki pola serupa berarti arah gradien sudah benar, maka perubahan bobot dilakukan secara 15 cepat. Namun apabila data terakhir yang dimasukkan memiliki pola yang berbeda dengan pola sebelumnya, maka perubahan bobot dilakukan secara lambat. Dengan penambahan momentum, bobot baru pada waktu ke t+1 didasarkan atas bobot pada waktu t dan t-1. Disini harus ditambahkan dua variabel yang mencatat besarnya momentum untuk dua iterasi terakhir. Jika μ adalah konstanta 0 ≤ μ ≤ 1 yang menyatakan parameter momentum maka bobot baru dihitung berdasarkan persamaan sebagai berikut. ………..16 dengan, W R kj R t = bobot awal pola kedua hasil dari itersi pola pertama W R kj R t - 1 = bobot awal pada iterasi pola pertama dan ……………..17 dengan V R ji R t = bobot awal pola kedua hasil dari itersi pola pertama V R ji R t - 1 = bobot awal pada iterasi pola pertama Siang, 2005:113 Menurut Rich dan Knight, 2001, Perambatan Balik merupakan salah satu model JST yang popular dan ampuh. JST ini menggunakan arsitektur yang mirip dengan arsitektur JST Multi Layer Perceptron yang memiliki satu atau lebih lapisan tersembunyi diantara lapisan masukan dan lapisan keluaran. JST perambatan balik menggunakan metode pembelajaran terawasi supervised training sedangkan Kusumadewi, 2003, mengutarakan bahwa; JST perambatan balik tidak memiliki hubungan umpan balik feedback, artinya suatu lapisan layer tidak memiliki hubungan dengan lapisan sebelumnya sehingga bersifat umpan maju feedforward, namun galat yang diperoleh diumpankan kembali ke lapisan sebelumnya selama proses pelatihan, kemudian dilakukan penyesuaian bobot. Gambar 4 . 16 Gambar 4, Arsitektur-JST Backpropagation menurut Kusumadewi, 2003.

2.2. Metode Sidik Jari