Staffsite STMIK PPKIA Pradnya Paramita 2b6be ai 10 jst

(1)

JARINGAN SARAF TIRUAN

(ARTIFICIAL NEURAL NETWORK)


(2)

INTRODUCTION

Jaringan

Saraf

Tiruan

atau

JST

adalah

merupakan salah satu representasi tiruan dari otak

manusia

yang

selalu

mencoba

untuk

mensimulasikan proses pembelajaran pada otak

manusia.

Istilah

Tiruan / Buatan

digunakan karena JST ini

diimplementasi pada program komputer yang

mampu

menyelesaikan

proses

penghitungan

selama proses pembelajaran.


(3)

HUMAN BRAIN

Bertugas untuk memproses informasi Seperti

prosesor sederhana.

Masing-masing

cell

tersebut

berinteraksi

mendukung kinerja otak

Setiap sel (neuron) memiliki satu nukleus (

soma

),

bertugas memproses informasi, informasi diterima

oleh

dendrit

, dan disebarkan melalui

akson

Pertemuan informasi antar syaraf berada di


(4)

CONTINUE HUMAN BRAIN

axon

cell body synapse

nucleus


(5)

CONTINUE HUMAN BRAIN

Manusia memiliki +10^12 neuron Dan

6x10^18 sinapsis

Informasi

yang

dikirimkan

berupa

rangsangan dengan sebuah batas ambang

(threshold)

Pada batas tertentu, syaraf lain akan teraktifasi

dan merespon

Hubungan antar syaraf terjadi secara

dinamis

Otak manusia memiliki kemampuan untuk

belajar dan beradaptasi

Mampu mengenali pola, wajah, mengkontrol

organ tubuh


(6)

CONTINUE HUMAN BRAIN

Neuron merupakan sistem yang fault tolerance

 Dapat mengenali sinyal input yang berbeda dari

sebelumnya

 Dapat mengenali orang yang belum pernah ditemui hanya

dengan melihat dari foto.

 Dapat mengenali orang yang berubah karena tua.

 Tetap dapat bekerja walau beberapa neuronnya rusak,


(7)

HISTORY OF ARTIFICIAL NEURAL NETWORK

Sejak ditemukan, JST telah mengalami tahap-tahap

perkembangan diantaranya adalah :

 1940, Para ilmuwan menemukan bahwa psikologi dari

otak sama dengan mode pemrosesan yang dilakukan oleh peralatan komputer.

 1943, McCulloch dan Pitts merancang model formal

yang pertama kali sebagai perhitungan dasar neuron.

 1949, Hebb menyatakan bahwa informasi dapat

disimpan dalam koneksi – koneksi dan mengusulkan

adanya skema pembelajaran untuk memperbaiki

koneksi – koneksi antar neuron tersebut.

 1954, Farley dan Clark mensetup model-model untuk

relasi adaptif stimulus-respon dan jaringan random.

 1958, Rosenblat mengembangkan konsep dasar


(8)

 1960, Widrow dan Hoff mengembangkan ADALINE untuk kendali adaptif dan pencocokan pola yang dilatih dengan aturan pembelajaran Least Mean Square (LSM)

 1974, Werbos mengenalkan algoritma Backpropagation

untuk melatih Perceptron dengan banyak lapisan.

 1975, Little dan Shaw menggambarkan jaringan saraf dengan menggunakan probabilistik.

 1982, Kohonen mengembangkan metode pembelajaran jaringan saraf yang tidak terawasi (Unsupervised Learning) untuk pemetaan.

 1982, Grossberg dan Carpenter mengembangkan teori jaringan yang di inspirasi oleh perkembangan psikologi. Arsitektur jaringan tersebut diberi nama antara lain : Adaptive Resonance Theory (ART), ART2 dan ART3

 1982, Hopfield mengembangkan jaringan syaraf reccurent yang dapat digunakan untuk menyimpan informasi dan optimasi.


(9)

 1985, Algoritma Boltzmann untuk jaringan syaraf probabilistik.

 1987, dikembangkan BAM (Bidirectional Associative

Memory).

 1988, dikembangkan Radial Basis Function.


(10)

COMPONENT OF ANN

Ada macam

macam algoritma pada JST, tetapi

semua jenis algoritma memiliki komponen yang

sama antara satu dengan yang lainnya.

JST juga memiliki

neuron

dan saling terhubung

antara neuron satu dengan neuron yang lainnya.

Neuron

tersebut

akan

mentransformasikan

informasi yang diterima melalui sambungan

keluarnya (

dendrit

) melalui

sinapsis

menuju ke

neuron

neuron yang lainnya.

Pada JST ini hubungan ini dikenal dengan istilah

bobot / weight (w)

.

Informasi tersebut disimpan pada suatu nilai

tertentu pada

bobot

.


(11)

GENERAL STRUCTURE NEURON OF ANN

bobot Input dari

neuron – neuron yang lain

Fungsi aktivasi

output

bobot

Output ke

neuron2 yang lain

X1

X2

X3

Y1

Y2

Y3 W1

W2

W3

ACTIVATION FUNCTION

INPUT OUTPUT


(12)

DESCRIPTION STRUCTURE OF NEURON

Informasi (dari

input

) akan dikirim ke neuron dengan

nilai bobot.

Input diproses oleh fungsi perambatan yang akan

menjumlahkan nilai

nilai semua bobot yang datang.

Hasil penjumlahan ini kemudian akan dibandingkan

dengan nilai batas ambang (

threshold

) tertentu melalui

fungsi aktivasi setiap neuron.

Apabila input melewati suatu nilai ambang tertentu

maka neuron tersebut akan diaktifkan.

Apabila neuron tersebut diaktifkan, maka neuron

tersebut mengirimkan output melalui bobot-bobot

outputnya ke semua neuron yang berhubungan

dengannya.


(13)

NEURON LAYERS

Neuron pada lapisan input (Input Layer)

Neuron pada lapisan tersembunyi (Hidden Layer)


(14)

ARSITEKTUR JARINGAN

Jaringan Dengan Lapisan Tunggal (Single Layer

Net)

X1 X2 X3

Y1 Y2

W11 W

32

W31 W22

W21 W12

Nilai Input

Lapisan Input

Matriks Bobot

Lapisan Output


(15)

(16)

Jaringan Dengan Lapisan Kompetitif (Competitive

Layer Net)


(17)

FUNGSI AKTIVASI / ACTIVATION FUNCTION

Fungsi Undak Biner (Hard Limit)

 Jaringan dengan lapisan tunggal sering menggunakan

fungsi undak (step function) untuk mengkonversi input dari suatu variabel yang bernilai continue ke suatu output biner (0 atau 1).

 Dapat dirumuskan sebagai berikut :

1 y x 0

0

x

jika

,

1

0

x

jika

,

0

y


(18)

Fungsi Undak Biner (Threshold)

 Fungsi undak biner dengan menggunakan batas

ambang sering juga disebut dengan nama fungsi nilai

ambang (threshold) atau fungsi Heaviside.

 Dapat dirumuskan sebagai berikut :

0 1 y

x 0

x

jika

,

1

x

jika

,

0


(19)

Fungsi Bipolar (Symetric Hard Limit)

 Fungsi bipolar hampir sama dengan fungsi undak biner.

 Output yang dihasilkan terdiri – dari nilai 0,1 dan -1

 Dapat dirumuskan sebagai berikut :

0 -1 x 1 y          0 x jika , 1 0 x jika , 0 0 x jika , 1 y


(20)

Fungsi Bipolar (Dengan Threshold)

 Fungsi bipolar hampir sama dengan fungsi undak biner

dengan nila batas ambang.

 Output yang dihasilkan terdiri – dari nilai 0,1 dan -1

 Dapat dirumuskan sebagai berikut :

0 -1 x 1 y 0

x

jika

,

1

x

jika

,

1

y


(21)

Fungsi Linier (Identitas)

 Fungsi linier memiliki nilai output sama dengan nilai

inputnya.

 Dapat dirumuskan sebagai berikut :

0

-1

x

1

y

-1

1


(22)

Fungsi Saturating Linier

 Fungsi ini akan bernilai 0, jika x > -0,5

 Fungsi ini akan bernilai 1, jika x < 0,5

 Jika nilai inputnya antara -0,5 ≤ x ≤ 0,5 maka outputnya

akan bernilai sama dengan nilai input ditambah 0,5 (y = x + 0,5)

1

y

x

0

0,5 -0,5           0,5 x jika ; 0 0,5 x 0,5 -jika 0,5; x 0,5 x jika ; 1 y


(23)

Fungsi Symetric Saturating Linier

 Fungsi akan bernilai -1, jika x < -1

 Fungsi akan bernilai 1, jika x > 1

 Jika nilai inputnya antara -1 ≤ x ≤ 1 maka outputnya

akan bernilai sama dengan nilai inputnya (y = x)

0 -1 x 1 y -1 1



1

x

jika

;

1

1

x

1

-jika

x;

1

x

jika

;

1

y


(24)

Fungsi Sigmoid Biner

 Fungsi ini digunakan untuk JST yang dilatih dengan

menggunakan metode backpropagation.

 Fungsi ini memiliki nilai 0 sampai dengan 1

 Fungsi ini digunakan untuk JST yang memiliki nilai

output dengan interval 0 s/d 1

 

x

e

x

f

y

1

1

 

x

f

 

x

f

 

x

f

'

1


(25)

Fungsi Sigmoid Bipolar

 Fungsi ini hampir sama dengan sigmoid biner.

 Perbedaannya yaitu pada nilai outputnya mulai dari -1 ≤

x ≤ 1

= 1 = 2 σ σ = 0,5 σ 1 0.8 0.6 0.4 0.2 0 -0.2 -0.4 -0.6 -0.8 -1

- 10 - 8 - 6 - 4 - 2 0 2 4 6 8 10

y x x x e e x f y      1 1 ) (

 

x

f

 

x

f

 

x

f  1 1

2

' 

Dengan

Fungsi ini dekat dengan hyperbolic tangen

keduanya memiliki range -1 s/d 1

x x x x e e e e x f y    

 ( ) x

x e e x f y 2 2 1 1 ) (    

 

x

f

 

x

f

 

x

f

'

1

1

Dengan atau


(26)

LEARNING PROCESS

Pembelajaran Terawasi (Supervised Learning)

 Metode Pembelajaran pada JST disebut terawasi jika

output yang diharapkan telah diketahui sebelumnya.

 Pada proses pembelajaran, satu pola input akan

diberikan ke satu neuron pada lapisan input. Pola ini

akan dirambatkan di sepanjang jaringan syaraf hingga

sampai ke neuron lapisan output.

 Lapisan output ini akan membangkitkan pola output

yang nantinya akan dicocokan dengan pola output targetnya.

 Apabila terjadi nilai perbedaan pada waktu proses

pencocokan maka akan muncul nilai error.

 Apabila nilai error masih terlalu besar maka perlu

dilakukan proses pembelajaran lagi.


(27)

Pembelajaran

Tidak

Terawasi

(UnSupervised

Learning)

 Metode ini tidak memerlukan target output.

 Metode ini tidak dapat diharapkan outputnya seperti

pada waktu proses pembelajaran (training).

 Pada proses pembelajaran, nilai bobot disusun dalam

suatu range tertentu tergantung pada nilai input yang diberikan.

 Tujuan pembelajaran adalah mengelompokan atau

peng-klasifikasian unit – unit yang hampir sama dalam

suatu area tertentu.


(28)

(1)

Fungsi Symetric Saturating Linier

 Fungsi akan bernilai -1, jika x < -1

 Fungsi akan bernilai 1, jika x > 1

 Jika nilai inputnya antara -1 ≤ x ≤ 1 maka outputnya akan bernilai sama dengan nilai inputnya (y = x)

0 -1

x 1

y

-1 1



1

x

jika

;

1

1

x

1

-jika

x;

1

x

jika

;

1


(2)

Fungsi Sigmoid Biner

 Fungsi ini digunakan untuk JST yang dilatih dengan

menggunakan metode backpropagation.

 Fungsi ini memiliki nilai 0 sampai dengan 1

 Fungsi ini digunakan untuk JST yang memiliki nilai output dengan interval 0 s/d 1

 

x

e

x

f

y

1

1

 

x

f

 

x

f

 

x

f

'

1


(3)

Fungsi Sigmoid Bipolar

 Fungsi ini hampir sama dengan sigmoid biner.

 Perbedaannya yaitu pada nilai outputnya mulai dari -1 ≤

x ≤ 1

= 1 = 2 σ σ = 0,5 σ 1 0.8 0.6 0.4 0.2 0 -0.2 -0.4 -0.6 -0.8 -1

- 10 - 8 - 6 - 4 - 2 0 2 4 6 8 10

y x x x e e x f y      1 1 ) (

 

x

f

 

x

f

 

x

f  1 1

2

' 

Dengan

Fungsi ini dekat dengan hyperbolic tangen

keduanya memiliki range -1 s/d 1

x x x x e e e e x f y    

 ( ) x

x e e x f y 2 2 1 1 ) (    

 

x

f

 

x

f

 

x

f

'

1

1

Dengan atau


(4)

LEARNING PROCESS

Pembelajaran Terawasi (Supervised Learning)

 Metode Pembelajaran pada JST disebut terawasi jika output yang diharapkan telah diketahui sebelumnya.

 Pada proses pembelajaran, satu pola input akan

diberikan ke satu neuron pada lapisan input. Pola ini akan dirambatkan di sepanjang jaringan syaraf hingga sampai ke neuron lapisan output.

 Lapisan output ini akan membangkitkan pola output yang nantinya akan dicocokan dengan pola output targetnya.

 Apabila terjadi nilai perbedaan pada waktu proses pencocokan maka akan muncul nilai error.

 Apabila nilai error masih terlalu besar maka perlu dilakukan proses pembelajaran lagi.


(5)

Pembelajaran

Tidak

Terawasi

(UnSupervised

Learning)

 Metode ini tidak memerlukan target output.

 Metode ini tidak dapat diharapkan outputnya seperti pada waktu proses pembelajaran (training).

 Pada proses pembelajaran, nilai bobot disusun dalam suatu range tertentu tergantung pada nilai input yang diberikan.

 Tujuan pembelajaran adalah mengelompokan atau

peng-klasifikasian unit – unit yang hampir sama dalam suatu area tertentu.


(6)