9ae36 ai 10 1 contoh hebb rule

JARINGAN SARAF TIRUAN
ERWIEN TJIPTA WIJAYA,ST.,M.KOM

HEBBI RULE
DAN
DELTA RULE

HEBB RULE : DESKRIPSI
 Hebbi Rule atau yang biasa dikenal dengan Hebb Rule (1949)
adalah metode pembelajaran yang paling sederhana.
 Pembelajaran dilakukan dengan cara memperbaiki nilai
bobot.
 Pembelajaran Hebb Rule termasuk supervised
 Apabila data direpresentasikan secara Bipolar dengan
supervised, maka perbaikan bobotnya adalah :
=

+

ALGORITMA
 Inisialisasi semua bobot :

= ;



= , , …, ;

= , , ,…,

 Setiap pasangan input-output (s-t), lakukan langkah sebagai
berikut :
 Set input dengan nilai sama dengan vektor input :
= ; = , , ,…,

 Set output dengan nilai sama dengan vektor output
 Perbaiki bobot:

=

;


=
= , , ,…,

= , , ,…,

+
;
= , , ,…,

CONTOH : PEMBELAJARAN LOGIKA OR
 Membuat jaringan saraf untuk melakukan pembelajaran
terhadap fungsi OR dengan input dan target bipolar
supervised sebagai berikut :
X1

X2

B

TARGET


-1

-1

1

-1

-1

1

1

1

1

-1


1

1

1

1

1

1

 Bobot awal dan bobot bias diset = 0

 Arsitektur jaringan :

+

 Perubahan bobot :

 Data ke-1 :

= + − ∗− =
= + − ∗− =
= + − =−

_

F(y_in)

 Perubahan bobot:

 Data ke-2 :
= + − ∗ =
= +
∗ =
=− + =

 Data ke-3 :
= +

∗ =
= + − ∗ =
= + =
 Data ke-4 :
= +

= +

= + =

=
=

HASIL TRAINING
 Bentuk output :
_

=

+


+

 Jika diberikan inputan x = [0,2 0,9] maka, hasilnya adalah :
_

=

+

, ∗

+

,



= ,


 Karena nilai y_in=2,4 maka hasil setelah dilakukan melalui
fungsi aktivasi f(y_in) = f(2,4)= 1

DELTA RULE : DESKRIPSI
 Delta rule akan mengubah bobot yang menghubungkan
jaringan input ke unit output (y_in) dengan nilai target (t).
 Delta rule digunakan untuk meminimalkan error selama
pelatihan pola.
 Delta rule untuk memperbaiki bobot ke-i


= �





dengan :
x
= vektor input

y_in
= input jaringan ke unit Y

_ =
=
t
= target (output)

 Nilai w baru diperoleh dari nilai w lama ditambah dengan ∆


= �





CONTOH: PEMBELAJARAN LOGIKA OR
 Tabel logika pembelajaran dengan fungsi aktivasi undak biner
X1


X2

TARGET

0

0

0

0

1

1

1

0


1

1

1

1

 Arsitektur jaringan
_

F(y_in)

 Diketahui :






Threshold (�) = 0,5
Learning rate (�) = 0,2
w1 = 0,1
w2 = 0,3
Nilai error (�) = t – y  target_output – nilai_output

ITERASI KE-1
 Data ke-1 :

= ;
= ; =
= , ;
= ,
=
+
=
= ,
= ≤
� = −
= − =
+ �.
�� =
+ �.
�� =

 Data ke-2 :
= ;
= , ;
=
= ,
� = −
�� =
�� =

= ;
= ,
+

=

∗ ,
,
.�
.�

+

∗ ,

=

= , + , ∗
= , + , ∗




= ,
= ,

= ∗ , + ∗ , = ,
= , ≤ ,
− =
+ �.
.� = , + , ∗ ∗
+ �.
.� = , + , ∗ ∗

= ,
= ,

=

ITERASI KE-1
 Data ke-3

:

= ;
= , ;
=
= ,
� = −
�� =
�� =

= ;
= ,
+

= ;
= , ;
=
= ,
� = −
�� =
�� =

= ;
= ,
+

 Data ke-4

=

:

=

=

= ∗ , + ∗ , = ,
= , ≤ ,
− =
+ �.
.� = , + , ∗ ∗
+ �.
.� = , + , ∗ ∗

= ,
= ,

=

= ∗ , + ∗ , = ,
= , > ,
− =
+ �.
.� = , + , ∗ ∗
+ �.
.� = , + , ∗ ∗

= ,
= ,

 Demikian seterusnya hingga hasil akhirnya tercapai apabila
nilai error (� ) = 0, dan iterasi berhenti pada iterasi yang ke-4


epoh

x1

x2

t

w1(L)

w2(L)

a

y

w1(B) w2(B)

1

0

0

0

0,1

0,3

0

0

0,0

0,1

0,3

1

0

1

1

0,1

0,3

0,3

0

1,0

0,1

0,5

1

1

0

1

0,1

0,5

0,1

0

1,0

0,3

0,5

1

1

1

1

0,3

0,5

0,8

1

0,0

0,3

0,5

2

0

0

0

0,3

0,5

0

0

0,0

0,3

0,5

2

0

1

1

0,3

0,5

0,5

0

1,0

0,3

0,7

2

1

0

1

0,3

0,7

0,3

0

1,0

0,5

0,7

2

1

1

1

0,5

0,7

1,2

1

0,0

0,5

0,7



epoh

x1

x2

t

w1(L)

w2(L)

a

y

w1(B) w2(B)

3

0

0

0

0,5

0,7

0

0

0,0

0,5

0,7

3

0

1

1

0,5

0,7

0,7

1

0,0

0,5

0,7

3

1

0

1

0,5

0,7

0,5

0

1,0

0,7

0,7

3

1

1

1

0,7

0,7

1,4

1

0,0

0,7

0,7

4

0

0

0

0,7

0,7

0

0

0,0

0,7

0,7

4

0

1

1

0,7

0,7

0,7

1

0,0

0,7

0,7

4

1

0

1

0,7

0,7

0,7

1

0,0

0,7

0,7

4

1

1

1

0,7

0,7

1,4

1

0,0

0,7

0,7