JARINGAN SYARAF TIRUAN (JST)
LEARNING
ARTIFICIAL INTELLIGENT
OUTLINE
Decision tree learning
Jaringan Syaraf Tiruan
K-Nearest Neighborhood
Naïve Bayes
JARINGAN SYARAF TIRUAN (JST)
Intro
Definisi ANN
Model Matematis Neuron
Fungsi Aktivasi
Arsitektur ANN
Proses Belajar (Learning)
Perceptron
ANN dengan Supervised Learning
ANN dengan Unsupervised Learning
Permasalahan pada ANN
JARINGAN SARAF TIRUAN (JST)
o Otak terdiri dari neuron-neuron dan penghubung yang disebut sinapsis
o Neuron bekerja berdasarkan sinyal/impuls yang diberikan pada neuron
o Neuron memiliki 3 komponen penting yaitu dendrit, soma dan axon
Dendrit
Badan Sel
Treshold
Akson
o jaringan saraf tiruan adalah paradigma pengolahan informasi yang
terinspirasi oleh sistem saraf secara biologis
o JST dibentuk sebagai generalisasi model matematika dari jaringan syaraf
biologi, dengan asumsi bahwa :
1. Pemrosesan informasi terjadi pada panyak elemen sederhana (neuron).
2. Sinyal dikirim diantara neuron-neuron melalui penghubung-penghubung.
3. Penghubung antar neuron memiliki bobot yang akan memperkuat atau
memperlemah sinyal.
4. Untuk menentukan output, setiap neuron menggunakan fungsi aktivas.
Besarnya output ini selanjutnya dibandingkan dengan suatu batas ambang.
o JST juga ditentukan oleh 3 hal :
a. Pola hubungan antar neuron (disebut aritektur jaringan).
b. Metode untuk menentukan
training/learning).
bobot
penghubung
(disebut
metode
c. Fungsi aktivasi, yaitu fungsi yang digunakan untuk menentukan keluaran
suatu neuron.
KOMPONEN JST
oJaringan saraf tiruan memiliki komponen yang digunakan dalam membangun
suatu arsitektur-arsitektur jaringan
oNeuron dikelompokkan ke dalam beberapa lapisan yang mana saling memiliki
hubungan satu dengan yang lainnya yang disebut dengan lapisan (layer)
1. Lapisan Masukan (Input Layer), berisi
menyimpan sebuah nilai masukan
node-node
yang masing-masing
2. Lapisan Tersembunyi (Hidden Layer), proses pada fase pelatihan dan fase
pengenalan dijalankan di lapisan ini
3. Lapisan Keluaran (Output Layer), menampilkan hasil perhitungan sistem
ARSITEKTUR JST
oJaringan dengan lapisan tunggal (single layer network)
oJaringan dengan banyak lapisan (Multi layer network)
PERCEPTRON
Neuron: Sel syaraf biologis
Perceptron: Sel syaraf buatan
Input function
Activation function
Output
Perceptron
x1
x2
.
.
.
xp
w
w
y
PERCEPTRON
Jika manusia punya 10 milyar neuron, apa yang bisa dilakukan?
Sangat banyak hal bisa dilakukan
Apalagi jika Multiple Intelligence
Perceptron = MODEL SEDERHANA dari neuron
Apa yang bisa dilakukan oleh satu perceptron?
Klasifikasi
Prediksi
Optimasi, …
AND
x2
1
x1
x2
y
0
0
0
0
1
0
1
0
0
1
1
1
x1
0
1
x1 + x2 – 1,5 = 0
w1.x1 + w2.x2 – 1,5 = 0
AND
(v)
1 if v
0 if v
(v )
1
x1
x2
y
0
0
0
0
1
0
1
0
0
1
1
1
x1
p
0
i 1
w=1
x2
v
v wi xi
w=1
y
θ = 1,5
y
OR
x2
1
x1
0
1
x1 + x2 – 0,5 = 0
x1
x2
y
0
0
0
0
1
1
1
0
1
1
1
1
OR
(v)
x1
x2
y
0
0
0
0
1
1
1
0
1
1
1
1
x1
1
p
0
v
v wi xi
i 1
w=1
x2
1 if v
0 if v
(v )
w=1
y
θ = 0,5
y
XOR
x2
x1 - x2 + 0,5 = 0
1
x1
0
x1 - x2 - 0,5 = 0
1
x1
x2
y
0
0
0
0
1
1
1
0
1
1
1
0
XOR
θ = 0,5
x1
w = -1
y
x1
x2
y
0
0
0
0
1
1
1
0
1
1
1
0
w=1
w=1
w=1
x2
w = -1
y
θ = 0,5
y
θ = 0,5
w=1
y
PERCEPTRON NETWORK
x1
x2
.
.
.
xp
w
w
y
y
y
LEARNING
Bagaimana menemukan
weights yang tepat?
Meminimumkan error
x2
x1
w1x1 + w2x2 - θ= 0
x2
x1
ACTIVATION FUNCTIONS
Hard Limit
Threshold
Linear (Identity)
Sigmoid
Radial Basis Function (RBF)
…
HARD LIMIT
(v)
1 if v 0
(v )
0 if v 0
1
0
v
THRESHOLD
(v)
1 if v
(v )
0 if v
1
0
v
SYMETRIC HARD LIMIT
(v)
1 if v 0
(v) 0 if v 0
1 if v 0
1
0
-1
v
BIPOLAR THRESHOLD
1 if v
(v) 0 if v
1 if v
(v)
1
0
-1
v
LINEAR (IDENTITY)
(v)
(v ) v
1
-1
0
-1
1
v
PIECEWISE-LINEAR
(v)
1
(v) v 0,5
0
1
-0,5
0
0,5
v
jika v 0,5
jika 0,5 v 0,5
jika v 0,5
SYMETRIC PIECEWISE-LINEAR
(v)
1
(v) v
1
1
-1
1
-1
v
jika v 1
jika 1 v 1
jika v 1
SIGMOID
(v)
1
(v )
1 e av
1
0
v
SYMETRIC (BIPOLAR) SIGMOID
(v)
1 e av
(v )
1 e av
1
0
-1
v
RADIAL BASIS FUNCTION (RBF)
(v)
(v ) e
1
0
v
av 2
ARSITEKTUR ANN
Para ahli memodelkan sel syaraf otak manusia ke dalam berbagai
arsitektur ANN (susunan neuron) yang berbeda-beda.
Masing-masing arsitektur menggunakan algoritma belajar khusus.
SINGLE-LAYER FEEDFORWARD NETWORKS
Input layer
of source node
Output layer
of neurons
MULTI-LAYER FEEDFORWARD NETWORKS
Input layer
of source
node
Layer of
hidden
neurons
Layer of
output
neurons
PROSES BELAJAR (LEARNING)
Learning process
Learning algorithm (rules)
Error-correction
learning
Bolzman
learning
Thorndike's
law of
effect
Hebbian
learning
Learning paradigms
Competitive
learning
Supervised
learning
Reinforcement
learning
Self-organized
(unsupervised)
learning
PERCEPTRON: MODEL
PERCEPTRON: SIGNAL-FLOW GRAPH
p
v wi xi
i 1
p
Decision boundary
w x 0
i 1
i i
x2
x1
w1x1 + w2x2 - θ= 0
Decision boundary
Pelamar
IPK
Psikologi
Wawancara
Diterima
P1
Bagus
Tinggi
Baik
Ya
P2
Bagus
Sedang
Baik
Ya
P3
Bagus
Sedang
Buruk
Ya
P4
Bagus
Rendah
Buruk
Tidak
P5
Cukup
Tinggi
Baik
Ya
P6
Cukup
Sedang
Baik
Ya
P7
Cukup
Sedang
Buruk
Ya
P8
Cukup
Rendah
Buruk
Tidak
P9
Kurang
Tinggi
Baik
Ya
P10
Kurang
Sedang
Buruk
Tidak
P11
Kurang
Rendah
Baik
Ya
Pelamar
IPK
Psikologi
Wawancara
Diterima
P1
3
3
2
1
P2
3
2
2
1
P3
3
2
1
1
P4
3
1
1
0
P5
2
3
2
1
P6
2
2
2
1
P7
2
2
1
1
P8
2
1
1
0
P9
1
3
2
1
P10
1
2
1
0
P11
1
1
2
1
Wawancara
3
2
1
4
0
0
3
2
1
2
1
3
4
IPK
0
Psikologi
Pola
Pix
1
Pix
2
Pix
3
Pix
4
Pix
5
…
Pix
100
E1
0
0
1
1
1
…
0
F1
0
0
1
1
1
…
0
G1
0
1
1
1
1
…
1
O1
0
1
1
1
1
…
1
0
1
1
1
1
…
1
..
O5
MULTI-LAYER PERCEPTRON (MLP)
ALGORITMA BELAJAR PROPAGASI
BALIK
Definisikan masalah
Matriks pola masukan (P)
matriks target (T)
Inisialisasi parameter jaringan
Arsitektur jaringan (misalkan I-H-O)
Synaptic weights acak (atau dengan metode tertentu)
Learning rate (lr) laju belajar
Threshold MSE untuk menghentikan learning
ALGORITMA BELAJAR PROPAGASI
BALIK
Pelatihan Jaringan
Perhitungan Maju
A1
1
1 e(W 1* P B1)
A2 W 2 * A1 B2
E T A2
MSE
2
E
N
ALGORITMA BELAJAR PROPAGASI
BALIK
Pelatihan Jaringan
Perhitungan Mundur
D2 (1 A2 2 ) * E
D1 (1 A12 ) * (W 2 * D2)
dW1 dW1 (lr * D1 * P)
dB1 dB1 (lr * D1)
dW 2 dW 2 (lr * D2 * P)
dB2 dB2 (lr * D2)
ALGORITMA BELAJAR PROPAGASI
BALIK
Pelatihan Jaringan
Perhitungan Mundur
W1 W1 dW1
B1 B1 dB1
W 2 W 2 dW 2
B2 B2 dB2
ALGORITMA BELAJAR PROPAGASI
BALIK
Langkah-langkah di atas adalah untuk satu kali siklus pelatihan (satu
epoch).
Biasanya, pelatihan harus diulang-ulang lagi hingga jumlah siklus
tertentu atau telah tercapai MSE yang diinginkan.
Hasil akhir dari pelatihan jaringan adalah bobot-bobot W1, W2, B1
dan B2.
PENGENALAN KARAKTER E, F, G, O
Matriks P
Matriks T
Pola
Pix
1
Pix
2
Pix
3
Pix
4
Pix
5
…
Pix
100
E1
0
0
1
1
1
…
0
1
0
0
0
E
F1
0
0
1
1
1
…
0
0
1
0
0
F
G1
0
1
1
1
1
…
1
0
0
1
0
G
O1
0
1
1
1
1
…
1
0
0
0
1
O
E2
0
0
1
1
1
…
0
1
0
0
0
E
…
…
…
…
…
…
…
…
…
…
…
…
…
O5
0
1
1
1
1
…
1
0
0
0
1
O
N1 N2
N3
N4 Kelas
Training
F2, G2, O2, …
dan seterusnya
hingga pola O5
W1 & W2: Random
W1
W2
-0.54
0.71
A1
-0.21
0.15
0.7
-0.52
-0.21
A2 T
E
0.9
1
0.1
0.1
0 -0.1
0.4
0 -0.4
0.3
0 -0.3
-0.53
0.91
-0.49
0.33
0.68
0.87
0.97
0.68
-0.18
-0.24
0.29
0.58
0.3
0.97
0.32
-0.18
0.25
-0.95
0.62
-0.17
0.62
-0.37
0.55
-0.12
0.88
-0.93
0.55
-0.12
0.89
0.75
0.34
0.9
-0.12
0.45
Testing
W1 & W2: Trained
W1
W2
0.01
0.31
-0.83
A2
Kelas
0.8
1
0.2
0
0.1
0
0.2
0
-0.38
0.19
0.34
0.22
0.62
0.74
0.35
0.87
-0.18
0.30
0.60
0.98
0.03
-0.53
-0.38
-0.09
Metode Konvensional
(Template Matching)
Memory besar
Waktu lama !!!
PERMASALAHAN PADA MLP
Bagaimana struktur ANN yang optimal?
Jumlah hidden layer
Jumlah neuron pada hidden layer
Jumlah neuron pada output layer
Fungsi aktivasi yang optimal
Learning Rate
Kapan Menghentikan Learning
ALGORITMA BELAJAR PROPAGASI
BALIK
Pelatihan Jaringan
Perhitungan Mundur
D2 (1 A2 2 ) * E
D1 (1 A12 ) * (W 2 * D2)
dW1 dW1 (lr * D1 * P)
dB1 dB1 (lr * D1)
dW 2 dW 2 (lr * D2 * P)
dB2 dB2 (lr * D2)
PENGENALAN TANDA TANGAN
MENGGUNAKAN METODE
JARINGAN SARAF TIRUAN PERCEPTRON
DAN BACKPROPAGATION
PENGUMPULAN DATA
oJenis data yang digunakan pada penelitian ini adalah jenis data
kuantitatif
oJumlah data sebanyak 500 data tanda tangan dari 10 orang yang
terdiri dari 400 data training dan 100 data testing.
ARSITEKTUR PROGRAM
AKUISISI CITRA
oAkuisisi citra digital merupakan proses
menangkap (capture) atau memindai (scan) citra
analog sehingga diperoleh citra digital.
oAlat yang dapat digunakan untuk mengakuisisi
citra digital antara lain: kamera digital, web
cam, smart phone, scanner, mikroskop digital,
pesawat rontgen, pesawat sinar X, pesawat MRI,
pesawat CT Scan, atau pesawat radiodiagnostik
lainnya.
PREPROCESSING
oPemotongan (Cropping)
oResize
oCitra keabuan (grayscale)
oCitra biner
PEMOTONGAN (CROPPING)
oProses croping dilakukan untuk mendapatkan masing-masing citra
digital dari hasil scanning
RESIZE
oProses resize adalah merubah ukuran piksel pada semua citra
CITRA RGB
o Inputan citra digital awal masih
berbentuk citra RGB. RGB adalah
suatu model warna yang terdiri
dari merah, hijau, dan biru
digabungkan dalam membentuk
suatu susunan warna yang luas.
Setiap warna memiliki range 0 –
255. Dengan cara ini, akan
diperoleh
warna
campuran
sebanyak 256 x 256 x 256 =
1677726 jenis warna.
CITRA KEBUAN
(GRAYSCALE)
CITRA BINER
o Citra biner adalah citra digital
yang
hanya
memiliki
dua
kemungkinan nilai pixel yaitu
hitam dan putih. Hanya dibutuhkan
1 bit untuk mewakili nilai setiap
pixel dari citra biner.
oSetelah nilai warna citra diubah dalam biner, nilai biner tersebut
akan diubah yang sebelumnya bernilai 0 menjadi 1 dan 1 menjadi 0.
Dengan tujuan mengubah latar gambar menjadi nilai 0 dan objek
menjadi nilai 1, karena pola dari nilai 1 yang akan dipelajari
nantinya.
LABELING
o Setelah preprocessing selesai maka akan didapat nilai biner dalam
bentuk matrix. Sebelum masuk proses pemberian label data matrix
diubah menjadi vector (matrix satu baris).
o Proses pemberian label ini adalah proses klasifikasi pada setiap vector
dari semua 400 citra latih yang sudah didapatkan
o Pemberian label ini bertujuan agar vector yang sudah dilatih dapat
dikenali sebagai vector dari citra tanda tangan yang tepat
Citra Tanda Tangan
Label
Target
1 – 40
Afi
0001
41 – 80
Andri
0010
81 – 120
Candra
0011
121 – 160
Damar
0100
161 – 200
Dian
0101
201 – 240
Enjang
0110
241 – 280
Rama
0111
281 – 320
Restu
1000
321 – 360
Riqza
1001
361 – 400
Rizki
1010
PROSES PELATIHAN
oPerceptron
oBackpropagation
PERCEPTRON
o Model jaringan perceptron ditemukan oleh Rosenblatt (1926) dan
Minsky – Papert (1969). Model tersebut merupakan model yang
memiliki aplikasi dan pelatihan yang paling baik di era tersebut.
ARSITEKTUR JST
oJaringan dengan lapisan tunggal (single layer network)
ACTIVATION FUNCTIONS
(FUNGSI AKTIVASI)
Hard Limit
Threshold
Linear (Identity)
Sigmoid
Radial Basis Function (RBF)
…
FUNGSI AKTIVASI PERCEPTRON
PROSES PEMBELAJARAN PERCEPTRON
Misalkan:
•s adalah vektor masukan dan t adalah target keluaran
•α adalah laju pemahaman (learning rate) yang ditentukan.
•Ɵ adalah threshold yang ditentukan.
ket:
y_in = nilai output sebelum dimasukan ke dalam
fungsi aktivasi
y = nilai output
Ket :
Δw = nilai pembaruan bobot
Δb = nilai pembaruan bias
Ada beberapa hal yang perlu diperhatikan dalam algoritma tersebut
:
•Iterasi dilakukan terus hingga semua pola memiliki keluaran jaringan
yang sama dengan targetnya (jaringan sudah memahami pola).
•Pada langkah 2(c), perubahan bobot hanya dilakukan pada pola
yang mengandung kesalahan (output ≠ target).
•Kecepatan iterasi ditentukan pula oleh laju pemahaman yang
dipakai. Semakin besar harga α, semakin sedikit iterasi yang
diperlukan. Akan tetapi jika α terlalu besar, makan akan merusak
pola yang sudah benar sehingga pemahaman menjadi lambat.
BACKPROPAGATION
o Kelemahan JST terdiri dari layer tunggal membuat perkembangan
JST menjadi berhenti pada sekitar tahhun 1970-an.
o JST dengan layer tunggal memiliki keterbatasan dalam pengenalan
pola.
o Kelemahan ini bisa ditanggulangi dengan menambahkan
satu/beberapa layer tersembunyi diantara layer masukan dan
keluaran.
o backpropagation
melatih
jaringan
untuk
mendapatkan
keseimbangan antara kemampuan jaringan untuk mengenali pola
yang digunakan selama pelatihan serta kemampuan jaringan untuk
memberikan respon yang benar terhadap pola masukan yang
serupa (tapi tidak sama) denga pola yang dipakai selama
pelatihan.
ARSITEKTUR BACKPROPAGATION
o Backpropagation adalah metode penurunan
meminimalkan kuadrat error keluaran.
gradien
untuk
o Ada tiga tahap yang harus dilakukan dalam pelatihan jaringan,
yaitu tahap perambatan maju (forward propagation), tahap
perambatan balik, dan tahap perubahan bobot dan bias.
FUNGSI AKTIVASI
Dalam backpropagation, fungsi aktivasi yang sering dipakai adalah :
oFungsi sigmoid biner yang memiliki range (0 hingga 1).
o Fungsi sigmoid bipolar yang memiliki range (1 hingga -1).
FUNGSI SIGMOID BINER
FUNGSI SIGMOID BIPOLAR
PROSES PEMBELAJARAN BACKPROPAGATION
Proses ini menggambarkan contoh tiga lapisan dengan dua input dan
satu output yang ditampilkan
Ket:
x = input
V = bobot yang menuju hidden layer
Z = hidden layer
W = bobot yang menuju output layer
Y = output layer
Proses perambatan maju / feed forward
(mecari nilai hidden layer)
Ket :
z_net = nilai bayangan hidden layer/nilai hidden layer
yang belum masuk fungsi aktivasi
Z = nilai hidden layer
Proses perambatan maju / feed forward
(mecari nilai output layer)
Ket :
y_net = nilai bayangan output layer/nilai
output layer yang belum masuk fungsi aktivasi
y = nilai hidden layer
Proses perambatan mundur / backpropagation (mecari nilai titik pembaruan bobot output
layer)
Proses perambatan mundur / backpropagation (mecari nilai titik pembaruan bobot
hidden layer)
Proses pembaruan bobot
o Lakukan langkah-langkah tersebut hingga nilai kesalahan terpenuhi
atau hingga jumlah iterasi telah mencai batas maksimum.
o Setelah pelatihan selesai dilakukan, jaringan dapat dipakai untutk
pengenalan pola.
o Apabila fungsi aktivasi yang dipakai bukan sigmoid biner, maka
langkah” harus disesuaikan lagi.
MENGHITUNG MSE
Ket :
e = error
n = jumlah data
MODEL PENGETAHUAN
oModel pengetahuan pada dasarnya adalah sebuah wadah yang
menyimpan arsitektur jaringan dari kedua algoritma yang sudah
dilatih dengan data latih hingga mendapakan akurasi tertentu.
oDi dalam model pengetahuan disimpan pengetahuan berupa jumlah
layer, banyaknya neuron, target, bobot, fungsi aktivasi dan error
PROSES PENGUJIAN
oData uji akan melewati proses awal yang sama seperti pada data
latih yaitu proses preprocessing (pemotongan, resize, citra keabuan,
citra biner dan vector)
oSetelah vector data uji di dapat,vector tersebut akan dimasukan ke
dalam model pengetahuan dan selanjutnya akan dilihat seberapa
akurat model pengetahuan yang sudah dibuat
HASIL
oPelatihan
oPengujian
okebutuhan jaringan sebagai berikut :
1. Batas epoch / iterasi maksimal adalah 1000 epoch
2. Target error (MSE) sebesar 0,0001
3. Learning rate sebesar 0,1 hingga 0,9
4. Untuk bobot jaringan ditentukan secara acak oleh komputer
dengan mengambil nilai acak yang cukup kecil
PELATIHAN
(desimal)
citra
0001
1
40
40
0
Andri
0010
2
40
40
0
Candra
0011
3
40
40
0
Damar
0100
4
40
40
0
Dian
0101
5
40
40
0
Enjang
0110
6
40
40
0
Rama
0111
7
40
40
0
Restu
1000
8
40
40
0
Riqza
1001
9
40
40
0
Rizky
1010
10
40
40
0
400
400
0
Target
afi1 – afi40
Afi
andri40
candra1 –
candra40
damar1 –
damar40
dian1 – dian40
enjang1 –
enjang40
Berdasarkan evaluasi hasil latih
terhadap data latih, didapatkan rata –
rata akurasi untuk proses pelatihan
menggunakan algoritma Perceptron
sebesar 100%.
Jumlah
Label
andri1 –
Perceptron
Target
Citra
rama1 –
rama40
restu1 –
restu40
riqza1 –
riqza40
rizki1 – rizki40
jumlah
Citra dikenali
Citra tidak
dikenali
PELATIHAN
Backpropagation
Jumlah
(desimal)
citra
0001
1
40
40
0
Andri
0010
2
40
40
0
Candra
0011
3
40
40
0
Damar
0100
4
40
40
0
Dian
0101
5
40
40
0
Enjang
0110
6
40
40
0
Rama
0111
7
40
40
0
Restu
1000
8
40
40
0
Riqza
1001
9
40
40
0
Rizky
1010
10
40
40
0
400
400
0
Label
Target
afi1 – afi40
Afi
andri1 –
andri40
candra1 –
candra40
damar1 –
damar40
dian1 – dian40
enjang1 –
Berdasarkan evaluasi hasil latih
terhadap data latih, didapatkan rata
– rata akurasi untuk proses pelatihan
menggunakan
algoritma
backpropagation
sebesar
100%.
Dengan rata – rata error akhir (MSE)
adalah 0,000099966 pada epoch ke –
1225.
Target
Citra
enjang40
rama1 –
rama40
restu1 –
restu40
riqza1 –
riqza40
rizki1 – rizki40
jumlah
Citra dikenali
Citra tidak
dikenali
PENGUJIAN
Perceptron
Citra
Jumlah
Citra dikenali
Citra tidak dikenali
Afi41 – afi50
10
10
0
Andri41 – andri50
10
7
3
10
10
0
10
6
4
10
10
0
10
4
6
Rama41 – rama50
10
8
2
Restu41 – restu50
10
9
1
Riqza41 – riqza50
10
2
8
Rizki41 – rizki50
10
10
0
jumlah
100
76
24
Candra41 –
candra50
Damar41 –
damar50
Dian41 – dian50
Enjang41 –
enjang50
didapatkan rata – rata akurasi untuk proses
pengujian terhadap hasil latih yang
menggunakan algoritma Perceptron sebesar
76%. Dan rata- rata kesalahan untuk setiap 10
data uji adalah 2 data.
PENGUJIAN
Backpropagation
Citra
Jumlah
Citra dikenali
Citra tidak dikenali
Afi41 – afi50
10
10
0
Andri41 – andri50
10
9
1
10
10
0
10
9
1
10
10
0
10
3
7
Rama41 – rama50
10
10
0
Restu41 – restu50
10
10
0
Riqza41 – riqza50
10
5
5
Rizki41 – rizki50
10
10
0
jumlah
100
86
14
Candra41 –
candra50
Damar41 –
damar50
Dian41 – dian50
Enjang41 –
enjang50
didapatkan rata – rata akurasi untuk proses
pengujian terhadap hasil latih yang
menggunakan algoritma Backpropagation
sebesar 86%. Dan rata- rata kesalahan untuk
setiap 10 data uji adalah 1 data.
Referensi :
Suyanto. 2007. Artificial Intelligence: Searching, Reasoning, Planning and
Learning. Informatika, Bandung Indonesia. ISBN: 979-1153-05-1.
Russel, Stuart and Norvig, Peter. 1995. Artificial Intelligence: A Modern
Approach. Prentice Hall International, Inc.
ARTIFICIAL INTELLIGENT
OUTLINE
Decision tree learning
Jaringan Syaraf Tiruan
K-Nearest Neighborhood
Naïve Bayes
JARINGAN SYARAF TIRUAN (JST)
Intro
Definisi ANN
Model Matematis Neuron
Fungsi Aktivasi
Arsitektur ANN
Proses Belajar (Learning)
Perceptron
ANN dengan Supervised Learning
ANN dengan Unsupervised Learning
Permasalahan pada ANN
JARINGAN SARAF TIRUAN (JST)
o Otak terdiri dari neuron-neuron dan penghubung yang disebut sinapsis
o Neuron bekerja berdasarkan sinyal/impuls yang diberikan pada neuron
o Neuron memiliki 3 komponen penting yaitu dendrit, soma dan axon
Dendrit
Badan Sel
Treshold
Akson
o jaringan saraf tiruan adalah paradigma pengolahan informasi yang
terinspirasi oleh sistem saraf secara biologis
o JST dibentuk sebagai generalisasi model matematika dari jaringan syaraf
biologi, dengan asumsi bahwa :
1. Pemrosesan informasi terjadi pada panyak elemen sederhana (neuron).
2. Sinyal dikirim diantara neuron-neuron melalui penghubung-penghubung.
3. Penghubung antar neuron memiliki bobot yang akan memperkuat atau
memperlemah sinyal.
4. Untuk menentukan output, setiap neuron menggunakan fungsi aktivas.
Besarnya output ini selanjutnya dibandingkan dengan suatu batas ambang.
o JST juga ditentukan oleh 3 hal :
a. Pola hubungan antar neuron (disebut aritektur jaringan).
b. Metode untuk menentukan
training/learning).
bobot
penghubung
(disebut
metode
c. Fungsi aktivasi, yaitu fungsi yang digunakan untuk menentukan keluaran
suatu neuron.
KOMPONEN JST
oJaringan saraf tiruan memiliki komponen yang digunakan dalam membangun
suatu arsitektur-arsitektur jaringan
oNeuron dikelompokkan ke dalam beberapa lapisan yang mana saling memiliki
hubungan satu dengan yang lainnya yang disebut dengan lapisan (layer)
1. Lapisan Masukan (Input Layer), berisi
menyimpan sebuah nilai masukan
node-node
yang masing-masing
2. Lapisan Tersembunyi (Hidden Layer), proses pada fase pelatihan dan fase
pengenalan dijalankan di lapisan ini
3. Lapisan Keluaran (Output Layer), menampilkan hasil perhitungan sistem
ARSITEKTUR JST
oJaringan dengan lapisan tunggal (single layer network)
oJaringan dengan banyak lapisan (Multi layer network)
PERCEPTRON
Neuron: Sel syaraf biologis
Perceptron: Sel syaraf buatan
Input function
Activation function
Output
Perceptron
x1
x2
.
.
.
xp
w
w
y
PERCEPTRON
Jika manusia punya 10 milyar neuron, apa yang bisa dilakukan?
Sangat banyak hal bisa dilakukan
Apalagi jika Multiple Intelligence
Perceptron = MODEL SEDERHANA dari neuron
Apa yang bisa dilakukan oleh satu perceptron?
Klasifikasi
Prediksi
Optimasi, …
AND
x2
1
x1
x2
y
0
0
0
0
1
0
1
0
0
1
1
1
x1
0
1
x1 + x2 – 1,5 = 0
w1.x1 + w2.x2 – 1,5 = 0
AND
(v)
1 if v
0 if v
(v )
1
x1
x2
y
0
0
0
0
1
0
1
0
0
1
1
1
x1
p
0
i 1
w=1
x2
v
v wi xi
w=1
y
θ = 1,5
y
OR
x2
1
x1
0
1
x1 + x2 – 0,5 = 0
x1
x2
y
0
0
0
0
1
1
1
0
1
1
1
1
OR
(v)
x1
x2
y
0
0
0
0
1
1
1
0
1
1
1
1
x1
1
p
0
v
v wi xi
i 1
w=1
x2
1 if v
0 if v
(v )
w=1
y
θ = 0,5
y
XOR
x2
x1 - x2 + 0,5 = 0
1
x1
0
x1 - x2 - 0,5 = 0
1
x1
x2
y
0
0
0
0
1
1
1
0
1
1
1
0
XOR
θ = 0,5
x1
w = -1
y
x1
x2
y
0
0
0
0
1
1
1
0
1
1
1
0
w=1
w=1
w=1
x2
w = -1
y
θ = 0,5
y
θ = 0,5
w=1
y
PERCEPTRON NETWORK
x1
x2
.
.
.
xp
w
w
y
y
y
LEARNING
Bagaimana menemukan
weights yang tepat?
Meminimumkan error
x2
x1
w1x1 + w2x2 - θ= 0
x2
x1
ACTIVATION FUNCTIONS
Hard Limit
Threshold
Linear (Identity)
Sigmoid
Radial Basis Function (RBF)
…
HARD LIMIT
(v)
1 if v 0
(v )
0 if v 0
1
0
v
THRESHOLD
(v)
1 if v
(v )
0 if v
1
0
v
SYMETRIC HARD LIMIT
(v)
1 if v 0
(v) 0 if v 0
1 if v 0
1
0
-1
v
BIPOLAR THRESHOLD
1 if v
(v) 0 if v
1 if v
(v)
1
0
-1
v
LINEAR (IDENTITY)
(v)
(v ) v
1
-1
0
-1
1
v
PIECEWISE-LINEAR
(v)
1
(v) v 0,5
0
1
-0,5
0
0,5
v
jika v 0,5
jika 0,5 v 0,5
jika v 0,5
SYMETRIC PIECEWISE-LINEAR
(v)
1
(v) v
1
1
-1
1
-1
v
jika v 1
jika 1 v 1
jika v 1
SIGMOID
(v)
1
(v )
1 e av
1
0
v
SYMETRIC (BIPOLAR) SIGMOID
(v)
1 e av
(v )
1 e av
1
0
-1
v
RADIAL BASIS FUNCTION (RBF)
(v)
(v ) e
1
0
v
av 2
ARSITEKTUR ANN
Para ahli memodelkan sel syaraf otak manusia ke dalam berbagai
arsitektur ANN (susunan neuron) yang berbeda-beda.
Masing-masing arsitektur menggunakan algoritma belajar khusus.
SINGLE-LAYER FEEDFORWARD NETWORKS
Input layer
of source node
Output layer
of neurons
MULTI-LAYER FEEDFORWARD NETWORKS
Input layer
of source
node
Layer of
hidden
neurons
Layer of
output
neurons
PROSES BELAJAR (LEARNING)
Learning process
Learning algorithm (rules)
Error-correction
learning
Bolzman
learning
Thorndike's
law of
effect
Hebbian
learning
Learning paradigms
Competitive
learning
Supervised
learning
Reinforcement
learning
Self-organized
(unsupervised)
learning
PERCEPTRON: MODEL
PERCEPTRON: SIGNAL-FLOW GRAPH
p
v wi xi
i 1
p
Decision boundary
w x 0
i 1
i i
x2
x1
w1x1 + w2x2 - θ= 0
Decision boundary
Pelamar
IPK
Psikologi
Wawancara
Diterima
P1
Bagus
Tinggi
Baik
Ya
P2
Bagus
Sedang
Baik
Ya
P3
Bagus
Sedang
Buruk
Ya
P4
Bagus
Rendah
Buruk
Tidak
P5
Cukup
Tinggi
Baik
Ya
P6
Cukup
Sedang
Baik
Ya
P7
Cukup
Sedang
Buruk
Ya
P8
Cukup
Rendah
Buruk
Tidak
P9
Kurang
Tinggi
Baik
Ya
P10
Kurang
Sedang
Buruk
Tidak
P11
Kurang
Rendah
Baik
Ya
Pelamar
IPK
Psikologi
Wawancara
Diterima
P1
3
3
2
1
P2
3
2
2
1
P3
3
2
1
1
P4
3
1
1
0
P5
2
3
2
1
P6
2
2
2
1
P7
2
2
1
1
P8
2
1
1
0
P9
1
3
2
1
P10
1
2
1
0
P11
1
1
2
1
Wawancara
3
2
1
4
0
0
3
2
1
2
1
3
4
IPK
0
Psikologi
Pola
Pix
1
Pix
2
Pix
3
Pix
4
Pix
5
…
Pix
100
E1
0
0
1
1
1
…
0
F1
0
0
1
1
1
…
0
G1
0
1
1
1
1
…
1
O1
0
1
1
1
1
…
1
0
1
1
1
1
…
1
..
O5
MULTI-LAYER PERCEPTRON (MLP)
ALGORITMA BELAJAR PROPAGASI
BALIK
Definisikan masalah
Matriks pola masukan (P)
matriks target (T)
Inisialisasi parameter jaringan
Arsitektur jaringan (misalkan I-H-O)
Synaptic weights acak (atau dengan metode tertentu)
Learning rate (lr) laju belajar
Threshold MSE untuk menghentikan learning
ALGORITMA BELAJAR PROPAGASI
BALIK
Pelatihan Jaringan
Perhitungan Maju
A1
1
1 e(W 1* P B1)
A2 W 2 * A1 B2
E T A2
MSE
2
E
N
ALGORITMA BELAJAR PROPAGASI
BALIK
Pelatihan Jaringan
Perhitungan Mundur
D2 (1 A2 2 ) * E
D1 (1 A12 ) * (W 2 * D2)
dW1 dW1 (lr * D1 * P)
dB1 dB1 (lr * D1)
dW 2 dW 2 (lr * D2 * P)
dB2 dB2 (lr * D2)
ALGORITMA BELAJAR PROPAGASI
BALIK
Pelatihan Jaringan
Perhitungan Mundur
W1 W1 dW1
B1 B1 dB1
W 2 W 2 dW 2
B2 B2 dB2
ALGORITMA BELAJAR PROPAGASI
BALIK
Langkah-langkah di atas adalah untuk satu kali siklus pelatihan (satu
epoch).
Biasanya, pelatihan harus diulang-ulang lagi hingga jumlah siklus
tertentu atau telah tercapai MSE yang diinginkan.
Hasil akhir dari pelatihan jaringan adalah bobot-bobot W1, W2, B1
dan B2.
PENGENALAN KARAKTER E, F, G, O
Matriks P
Matriks T
Pola
Pix
1
Pix
2
Pix
3
Pix
4
Pix
5
…
Pix
100
E1
0
0
1
1
1
…
0
1
0
0
0
E
F1
0
0
1
1
1
…
0
0
1
0
0
F
G1
0
1
1
1
1
…
1
0
0
1
0
G
O1
0
1
1
1
1
…
1
0
0
0
1
O
E2
0
0
1
1
1
…
0
1
0
0
0
E
…
…
…
…
…
…
…
…
…
…
…
…
…
O5
0
1
1
1
1
…
1
0
0
0
1
O
N1 N2
N3
N4 Kelas
Training
F2, G2, O2, …
dan seterusnya
hingga pola O5
W1 & W2: Random
W1
W2
-0.54
0.71
A1
-0.21
0.15
0.7
-0.52
-0.21
A2 T
E
0.9
1
0.1
0.1
0 -0.1
0.4
0 -0.4
0.3
0 -0.3
-0.53
0.91
-0.49
0.33
0.68
0.87
0.97
0.68
-0.18
-0.24
0.29
0.58
0.3
0.97
0.32
-0.18
0.25
-0.95
0.62
-0.17
0.62
-0.37
0.55
-0.12
0.88
-0.93
0.55
-0.12
0.89
0.75
0.34
0.9
-0.12
0.45
Testing
W1 & W2: Trained
W1
W2
0.01
0.31
-0.83
A2
Kelas
0.8
1
0.2
0
0.1
0
0.2
0
-0.38
0.19
0.34
0.22
0.62
0.74
0.35
0.87
-0.18
0.30
0.60
0.98
0.03
-0.53
-0.38
-0.09
Metode Konvensional
(Template Matching)
Memory besar
Waktu lama !!!
PERMASALAHAN PADA MLP
Bagaimana struktur ANN yang optimal?
Jumlah hidden layer
Jumlah neuron pada hidden layer
Jumlah neuron pada output layer
Fungsi aktivasi yang optimal
Learning Rate
Kapan Menghentikan Learning
ALGORITMA BELAJAR PROPAGASI
BALIK
Pelatihan Jaringan
Perhitungan Mundur
D2 (1 A2 2 ) * E
D1 (1 A12 ) * (W 2 * D2)
dW1 dW1 (lr * D1 * P)
dB1 dB1 (lr * D1)
dW 2 dW 2 (lr * D2 * P)
dB2 dB2 (lr * D2)
PENGENALAN TANDA TANGAN
MENGGUNAKAN METODE
JARINGAN SARAF TIRUAN PERCEPTRON
DAN BACKPROPAGATION
PENGUMPULAN DATA
oJenis data yang digunakan pada penelitian ini adalah jenis data
kuantitatif
oJumlah data sebanyak 500 data tanda tangan dari 10 orang yang
terdiri dari 400 data training dan 100 data testing.
ARSITEKTUR PROGRAM
AKUISISI CITRA
oAkuisisi citra digital merupakan proses
menangkap (capture) atau memindai (scan) citra
analog sehingga diperoleh citra digital.
oAlat yang dapat digunakan untuk mengakuisisi
citra digital antara lain: kamera digital, web
cam, smart phone, scanner, mikroskop digital,
pesawat rontgen, pesawat sinar X, pesawat MRI,
pesawat CT Scan, atau pesawat radiodiagnostik
lainnya.
PREPROCESSING
oPemotongan (Cropping)
oResize
oCitra keabuan (grayscale)
oCitra biner
PEMOTONGAN (CROPPING)
oProses croping dilakukan untuk mendapatkan masing-masing citra
digital dari hasil scanning
RESIZE
oProses resize adalah merubah ukuran piksel pada semua citra
CITRA RGB
o Inputan citra digital awal masih
berbentuk citra RGB. RGB adalah
suatu model warna yang terdiri
dari merah, hijau, dan biru
digabungkan dalam membentuk
suatu susunan warna yang luas.
Setiap warna memiliki range 0 –
255. Dengan cara ini, akan
diperoleh
warna
campuran
sebanyak 256 x 256 x 256 =
1677726 jenis warna.
CITRA KEBUAN
(GRAYSCALE)
CITRA BINER
o Citra biner adalah citra digital
yang
hanya
memiliki
dua
kemungkinan nilai pixel yaitu
hitam dan putih. Hanya dibutuhkan
1 bit untuk mewakili nilai setiap
pixel dari citra biner.
oSetelah nilai warna citra diubah dalam biner, nilai biner tersebut
akan diubah yang sebelumnya bernilai 0 menjadi 1 dan 1 menjadi 0.
Dengan tujuan mengubah latar gambar menjadi nilai 0 dan objek
menjadi nilai 1, karena pola dari nilai 1 yang akan dipelajari
nantinya.
LABELING
o Setelah preprocessing selesai maka akan didapat nilai biner dalam
bentuk matrix. Sebelum masuk proses pemberian label data matrix
diubah menjadi vector (matrix satu baris).
o Proses pemberian label ini adalah proses klasifikasi pada setiap vector
dari semua 400 citra latih yang sudah didapatkan
o Pemberian label ini bertujuan agar vector yang sudah dilatih dapat
dikenali sebagai vector dari citra tanda tangan yang tepat
Citra Tanda Tangan
Label
Target
1 – 40
Afi
0001
41 – 80
Andri
0010
81 – 120
Candra
0011
121 – 160
Damar
0100
161 – 200
Dian
0101
201 – 240
Enjang
0110
241 – 280
Rama
0111
281 – 320
Restu
1000
321 – 360
Riqza
1001
361 – 400
Rizki
1010
PROSES PELATIHAN
oPerceptron
oBackpropagation
PERCEPTRON
o Model jaringan perceptron ditemukan oleh Rosenblatt (1926) dan
Minsky – Papert (1969). Model tersebut merupakan model yang
memiliki aplikasi dan pelatihan yang paling baik di era tersebut.
ARSITEKTUR JST
oJaringan dengan lapisan tunggal (single layer network)
ACTIVATION FUNCTIONS
(FUNGSI AKTIVASI)
Hard Limit
Threshold
Linear (Identity)
Sigmoid
Radial Basis Function (RBF)
…
FUNGSI AKTIVASI PERCEPTRON
PROSES PEMBELAJARAN PERCEPTRON
Misalkan:
•s adalah vektor masukan dan t adalah target keluaran
•α adalah laju pemahaman (learning rate) yang ditentukan.
•Ɵ adalah threshold yang ditentukan.
ket:
y_in = nilai output sebelum dimasukan ke dalam
fungsi aktivasi
y = nilai output
Ket :
Δw = nilai pembaruan bobot
Δb = nilai pembaruan bias
Ada beberapa hal yang perlu diperhatikan dalam algoritma tersebut
:
•Iterasi dilakukan terus hingga semua pola memiliki keluaran jaringan
yang sama dengan targetnya (jaringan sudah memahami pola).
•Pada langkah 2(c), perubahan bobot hanya dilakukan pada pola
yang mengandung kesalahan (output ≠ target).
•Kecepatan iterasi ditentukan pula oleh laju pemahaman yang
dipakai. Semakin besar harga α, semakin sedikit iterasi yang
diperlukan. Akan tetapi jika α terlalu besar, makan akan merusak
pola yang sudah benar sehingga pemahaman menjadi lambat.
BACKPROPAGATION
o Kelemahan JST terdiri dari layer tunggal membuat perkembangan
JST menjadi berhenti pada sekitar tahhun 1970-an.
o JST dengan layer tunggal memiliki keterbatasan dalam pengenalan
pola.
o Kelemahan ini bisa ditanggulangi dengan menambahkan
satu/beberapa layer tersembunyi diantara layer masukan dan
keluaran.
o backpropagation
melatih
jaringan
untuk
mendapatkan
keseimbangan antara kemampuan jaringan untuk mengenali pola
yang digunakan selama pelatihan serta kemampuan jaringan untuk
memberikan respon yang benar terhadap pola masukan yang
serupa (tapi tidak sama) denga pola yang dipakai selama
pelatihan.
ARSITEKTUR BACKPROPAGATION
o Backpropagation adalah metode penurunan
meminimalkan kuadrat error keluaran.
gradien
untuk
o Ada tiga tahap yang harus dilakukan dalam pelatihan jaringan,
yaitu tahap perambatan maju (forward propagation), tahap
perambatan balik, dan tahap perubahan bobot dan bias.
FUNGSI AKTIVASI
Dalam backpropagation, fungsi aktivasi yang sering dipakai adalah :
oFungsi sigmoid biner yang memiliki range (0 hingga 1).
o Fungsi sigmoid bipolar yang memiliki range (1 hingga -1).
FUNGSI SIGMOID BINER
FUNGSI SIGMOID BIPOLAR
PROSES PEMBELAJARAN BACKPROPAGATION
Proses ini menggambarkan contoh tiga lapisan dengan dua input dan
satu output yang ditampilkan
Ket:
x = input
V = bobot yang menuju hidden layer
Z = hidden layer
W = bobot yang menuju output layer
Y = output layer
Proses perambatan maju / feed forward
(mecari nilai hidden layer)
Ket :
z_net = nilai bayangan hidden layer/nilai hidden layer
yang belum masuk fungsi aktivasi
Z = nilai hidden layer
Proses perambatan maju / feed forward
(mecari nilai output layer)
Ket :
y_net = nilai bayangan output layer/nilai
output layer yang belum masuk fungsi aktivasi
y = nilai hidden layer
Proses perambatan mundur / backpropagation (mecari nilai titik pembaruan bobot output
layer)
Proses perambatan mundur / backpropagation (mecari nilai titik pembaruan bobot
hidden layer)
Proses pembaruan bobot
o Lakukan langkah-langkah tersebut hingga nilai kesalahan terpenuhi
atau hingga jumlah iterasi telah mencai batas maksimum.
o Setelah pelatihan selesai dilakukan, jaringan dapat dipakai untutk
pengenalan pola.
o Apabila fungsi aktivasi yang dipakai bukan sigmoid biner, maka
langkah” harus disesuaikan lagi.
MENGHITUNG MSE
Ket :
e = error
n = jumlah data
MODEL PENGETAHUAN
oModel pengetahuan pada dasarnya adalah sebuah wadah yang
menyimpan arsitektur jaringan dari kedua algoritma yang sudah
dilatih dengan data latih hingga mendapakan akurasi tertentu.
oDi dalam model pengetahuan disimpan pengetahuan berupa jumlah
layer, banyaknya neuron, target, bobot, fungsi aktivasi dan error
PROSES PENGUJIAN
oData uji akan melewati proses awal yang sama seperti pada data
latih yaitu proses preprocessing (pemotongan, resize, citra keabuan,
citra biner dan vector)
oSetelah vector data uji di dapat,vector tersebut akan dimasukan ke
dalam model pengetahuan dan selanjutnya akan dilihat seberapa
akurat model pengetahuan yang sudah dibuat
HASIL
oPelatihan
oPengujian
okebutuhan jaringan sebagai berikut :
1. Batas epoch / iterasi maksimal adalah 1000 epoch
2. Target error (MSE) sebesar 0,0001
3. Learning rate sebesar 0,1 hingga 0,9
4. Untuk bobot jaringan ditentukan secara acak oleh komputer
dengan mengambil nilai acak yang cukup kecil
PELATIHAN
(desimal)
citra
0001
1
40
40
0
Andri
0010
2
40
40
0
Candra
0011
3
40
40
0
Damar
0100
4
40
40
0
Dian
0101
5
40
40
0
Enjang
0110
6
40
40
0
Rama
0111
7
40
40
0
Restu
1000
8
40
40
0
Riqza
1001
9
40
40
0
Rizky
1010
10
40
40
0
400
400
0
Target
afi1 – afi40
Afi
andri40
candra1 –
candra40
damar1 –
damar40
dian1 – dian40
enjang1 –
enjang40
Berdasarkan evaluasi hasil latih
terhadap data latih, didapatkan rata –
rata akurasi untuk proses pelatihan
menggunakan algoritma Perceptron
sebesar 100%.
Jumlah
Label
andri1 –
Perceptron
Target
Citra
rama1 –
rama40
restu1 –
restu40
riqza1 –
riqza40
rizki1 – rizki40
jumlah
Citra dikenali
Citra tidak
dikenali
PELATIHAN
Backpropagation
Jumlah
(desimal)
citra
0001
1
40
40
0
Andri
0010
2
40
40
0
Candra
0011
3
40
40
0
Damar
0100
4
40
40
0
Dian
0101
5
40
40
0
Enjang
0110
6
40
40
0
Rama
0111
7
40
40
0
Restu
1000
8
40
40
0
Riqza
1001
9
40
40
0
Rizky
1010
10
40
40
0
400
400
0
Label
Target
afi1 – afi40
Afi
andri1 –
andri40
candra1 –
candra40
damar1 –
damar40
dian1 – dian40
enjang1 –
Berdasarkan evaluasi hasil latih
terhadap data latih, didapatkan rata
– rata akurasi untuk proses pelatihan
menggunakan
algoritma
backpropagation
sebesar
100%.
Dengan rata – rata error akhir (MSE)
adalah 0,000099966 pada epoch ke –
1225.
Target
Citra
enjang40
rama1 –
rama40
restu1 –
restu40
riqza1 –
riqza40
rizki1 – rizki40
jumlah
Citra dikenali
Citra tidak
dikenali
PENGUJIAN
Perceptron
Citra
Jumlah
Citra dikenali
Citra tidak dikenali
Afi41 – afi50
10
10
0
Andri41 – andri50
10
7
3
10
10
0
10
6
4
10
10
0
10
4
6
Rama41 – rama50
10
8
2
Restu41 – restu50
10
9
1
Riqza41 – riqza50
10
2
8
Rizki41 – rizki50
10
10
0
jumlah
100
76
24
Candra41 –
candra50
Damar41 –
damar50
Dian41 – dian50
Enjang41 –
enjang50
didapatkan rata – rata akurasi untuk proses
pengujian terhadap hasil latih yang
menggunakan algoritma Perceptron sebesar
76%. Dan rata- rata kesalahan untuk setiap 10
data uji adalah 2 data.
PENGUJIAN
Backpropagation
Citra
Jumlah
Citra dikenali
Citra tidak dikenali
Afi41 – afi50
10
10
0
Andri41 – andri50
10
9
1
10
10
0
10
9
1
10
10
0
10
3
7
Rama41 – rama50
10
10
0
Restu41 – restu50
10
10
0
Riqza41 – riqza50
10
5
5
Rizki41 – rizki50
10
10
0
jumlah
100
86
14
Candra41 –
candra50
Damar41 –
damar50
Dian41 – dian50
Enjang41 –
enjang50
didapatkan rata – rata akurasi untuk proses
pengujian terhadap hasil latih yang
menggunakan algoritma Backpropagation
sebesar 86%. Dan rata- rata kesalahan untuk
setiap 10 data uji adalah 1 data.
Referensi :
Suyanto. 2007. Artificial Intelligence: Searching, Reasoning, Planning and
Learning. Informatika, Bandung Indonesia. ISBN: 979-1153-05-1.
Russel, Stuart and Norvig, Peter. 1995. Artificial Intelligence: A Modern
Approach. Prentice Hall International, Inc.