9ae36 ai 10 1 contoh hebb rule
JARINGAN SARAF TIRUAN
ERWIEN TJIPTA WIJAYA,ST.,M.KOM
HEBBI RULE
DAN
DELTA RULE
HEBB RULE : DESKRIPSI
Hebbi Rule atau yang biasa dikenal dengan Hebb Rule (1949)
adalah metode pembelajaran yang paling sederhana.
Pembelajaran dilakukan dengan cara memperbaiki nilai
bobot.
Pembelajaran Hebb Rule termasuk supervised
Apabila data direpresentasikan secara Bipolar dengan
supervised, maka perbaikan bobotnya adalah :
=
+
ALGORITMA
Inisialisasi semua bobot :
= ;
�
= , , …, ;
= , , ,…,
Setiap pasangan input-output (s-t), lakukan langkah sebagai
berikut :
Set input dengan nilai sama dengan vektor input :
= ; = , , ,…,
Set output dengan nilai sama dengan vektor output
Perbaiki bobot:
=
;
=
= , , ,…,
= , , ,…,
+
;
= , , ,…,
CONTOH : PEMBELAJARAN LOGIKA OR
Membuat jaringan saraf untuk melakukan pembelajaran
terhadap fungsi OR dengan input dan target bipolar
supervised sebagai berikut :
X1
X2
B
TARGET
-1
-1
1
-1
-1
1
1
1
1
-1
1
1
1
1
1
1
Bobot awal dan bobot bias diset = 0
Arsitektur jaringan :
+
Perubahan bobot :
Data ke-1 :
= + − ∗− =
= + − ∗− =
= + − =−
_
F(y_in)
Perubahan bobot:
Data ke-2 :
= + − ∗ =
= +
∗ =
=− + =
Data ke-3 :
= +
∗ =
= + − ∗ =
= + =
Data ke-4 :
= +
∗
= +
∗
= + =
=
=
HASIL TRAINING
Bentuk output :
_
=
+
+
Jika diberikan inputan x = [0,2 0,9] maka, hasilnya adalah :
_
=
+
, ∗
+
,
∗
= ,
Karena nilai y_in=2,4 maka hasil setelah dilakukan melalui
fungsi aktivasi f(y_in) = f(2,4)= 1
DELTA RULE : DESKRIPSI
Delta rule akan mengubah bobot yang menghubungkan
jaringan input ke unit output (y_in) dengan nilai target (t).
Delta rule digunakan untuk meminimalkan error selama
pelatihan pola.
Delta rule untuk memperbaiki bobot ke-i
∆
= �
−
∗
dengan :
x
= vektor input
y_in
= input jaringan ke unit Y
∗
_ =
=
t
= target (output)
Nilai w baru diperoleh dari nilai w lama ditambah dengan ∆
∆
= �
−
∗
CONTOH: PEMBELAJARAN LOGIKA OR
Tabel logika pembelajaran dengan fungsi aktivasi undak biner
X1
X2
TARGET
0
0
0
0
1
1
1
0
1
1
1
1
Arsitektur jaringan
_
F(y_in)
Diketahui :
Threshold (�) = 0,5
Learning rate (�) = 0,2
w1 = 0,1
w2 = 0,3
Nilai error (�) = t – y target_output – nilai_output
ITERASI KE-1
Data ke-1 :
= ;
= ; =
= , ;
= ,
=
+
=
= ,
= ≤
� = −
= − =
+ �.
�� =
+ �.
�� =
Data ke-2 :
= ;
= , ;
=
= ,
� = −
�� =
�� =
= ;
= ,
+
=
∗ ,
,
.�
.�
+
∗ ,
=
= , + , ∗
= , + , ∗
∗
∗
= ,
= ,
= ∗ , + ∗ , = ,
= , ≤ ,
− =
+ �.
.� = , + , ∗ ∗
+ �.
.� = , + , ∗ ∗
= ,
= ,
=
ITERASI KE-1
Data ke-3
:
= ;
= , ;
=
= ,
� = −
�� =
�� =
= ;
= ,
+
= ;
= , ;
=
= ,
� = −
�� =
�� =
= ;
= ,
+
Data ke-4
=
:
=
=
= ∗ , + ∗ , = ,
= , ≤ ,
− =
+ �.
.� = , + , ∗ ∗
+ �.
.� = , + , ∗ ∗
= ,
= ,
=
= ∗ , + ∗ , = ,
= , > ,
− =
+ �.
.� = , + , ∗ ∗
+ �.
.� = , + , ∗ ∗
= ,
= ,
Demikian seterusnya hingga hasil akhirnya tercapai apabila
nilai error (� ) = 0, dan iterasi berhenti pada iterasi yang ke-4
�
epoh
x1
x2
t
w1(L)
w2(L)
a
y
w1(B) w2(B)
1
0
0
0
0,1
0,3
0
0
0,0
0,1
0,3
1
0
1
1
0,1
0,3
0,3
0
1,0
0,1
0,5
1
1
0
1
0,1
0,5
0,1
0
1,0
0,3
0,5
1
1
1
1
0,3
0,5
0,8
1
0,0
0,3
0,5
2
0
0
0
0,3
0,5
0
0
0,0
0,3
0,5
2
0
1
1
0,3
0,5
0,5
0
1,0
0,3
0,7
2
1
0
1
0,3
0,7
0,3
0
1,0
0,5
0,7
2
1
1
1
0,5
0,7
1,2
1
0,0
0,5
0,7
�
epoh
x1
x2
t
w1(L)
w2(L)
a
y
w1(B) w2(B)
3
0
0
0
0,5
0,7
0
0
0,0
0,5
0,7
3
0
1
1
0,5
0,7
0,7
1
0,0
0,5
0,7
3
1
0
1
0,5
0,7
0,5
0
1,0
0,7
0,7
3
1
1
1
0,7
0,7
1,4
1
0,0
0,7
0,7
4
0
0
0
0,7
0,7
0
0
0,0
0,7
0,7
4
0
1
1
0,7
0,7
0,7
1
0,0
0,7
0,7
4
1
0
1
0,7
0,7
0,7
1
0,0
0,7
0,7
4
1
1
1
0,7
0,7
1,4
1
0,0
0,7
0,7
ERWIEN TJIPTA WIJAYA,ST.,M.KOM
HEBBI RULE
DAN
DELTA RULE
HEBB RULE : DESKRIPSI
Hebbi Rule atau yang biasa dikenal dengan Hebb Rule (1949)
adalah metode pembelajaran yang paling sederhana.
Pembelajaran dilakukan dengan cara memperbaiki nilai
bobot.
Pembelajaran Hebb Rule termasuk supervised
Apabila data direpresentasikan secara Bipolar dengan
supervised, maka perbaikan bobotnya adalah :
=
+
ALGORITMA
Inisialisasi semua bobot :
= ;
�
= , , …, ;
= , , ,…,
Setiap pasangan input-output (s-t), lakukan langkah sebagai
berikut :
Set input dengan nilai sama dengan vektor input :
= ; = , , ,…,
Set output dengan nilai sama dengan vektor output
Perbaiki bobot:
=
;
=
= , , ,…,
= , , ,…,
+
;
= , , ,…,
CONTOH : PEMBELAJARAN LOGIKA OR
Membuat jaringan saraf untuk melakukan pembelajaran
terhadap fungsi OR dengan input dan target bipolar
supervised sebagai berikut :
X1
X2
B
TARGET
-1
-1
1
-1
-1
1
1
1
1
-1
1
1
1
1
1
1
Bobot awal dan bobot bias diset = 0
Arsitektur jaringan :
+
Perubahan bobot :
Data ke-1 :
= + − ∗− =
= + − ∗− =
= + − =−
_
F(y_in)
Perubahan bobot:
Data ke-2 :
= + − ∗ =
= +
∗ =
=− + =
Data ke-3 :
= +
∗ =
= + − ∗ =
= + =
Data ke-4 :
= +
∗
= +
∗
= + =
=
=
HASIL TRAINING
Bentuk output :
_
=
+
+
Jika diberikan inputan x = [0,2 0,9] maka, hasilnya adalah :
_
=
+
, ∗
+
,
∗
= ,
Karena nilai y_in=2,4 maka hasil setelah dilakukan melalui
fungsi aktivasi f(y_in) = f(2,4)= 1
DELTA RULE : DESKRIPSI
Delta rule akan mengubah bobot yang menghubungkan
jaringan input ke unit output (y_in) dengan nilai target (t).
Delta rule digunakan untuk meminimalkan error selama
pelatihan pola.
Delta rule untuk memperbaiki bobot ke-i
∆
= �
−
∗
dengan :
x
= vektor input
y_in
= input jaringan ke unit Y
∗
_ =
=
t
= target (output)
Nilai w baru diperoleh dari nilai w lama ditambah dengan ∆
∆
= �
−
∗
CONTOH: PEMBELAJARAN LOGIKA OR
Tabel logika pembelajaran dengan fungsi aktivasi undak biner
X1
X2
TARGET
0
0
0
0
1
1
1
0
1
1
1
1
Arsitektur jaringan
_
F(y_in)
Diketahui :
Threshold (�) = 0,5
Learning rate (�) = 0,2
w1 = 0,1
w2 = 0,3
Nilai error (�) = t – y target_output – nilai_output
ITERASI KE-1
Data ke-1 :
= ;
= ; =
= , ;
= ,
=
+
=
= ,
= ≤
� = −
= − =
+ �.
�� =
+ �.
�� =
Data ke-2 :
= ;
= , ;
=
= ,
� = −
�� =
�� =
= ;
= ,
+
=
∗ ,
,
.�
.�
+
∗ ,
=
= , + , ∗
= , + , ∗
∗
∗
= ,
= ,
= ∗ , + ∗ , = ,
= , ≤ ,
− =
+ �.
.� = , + , ∗ ∗
+ �.
.� = , + , ∗ ∗
= ,
= ,
=
ITERASI KE-1
Data ke-3
:
= ;
= , ;
=
= ,
� = −
�� =
�� =
= ;
= ,
+
= ;
= , ;
=
= ,
� = −
�� =
�� =
= ;
= ,
+
Data ke-4
=
:
=
=
= ∗ , + ∗ , = ,
= , ≤ ,
− =
+ �.
.� = , + , ∗ ∗
+ �.
.� = , + , ∗ ∗
= ,
= ,
=
= ∗ , + ∗ , = ,
= , > ,
− =
+ �.
.� = , + , ∗ ∗
+ �.
.� = , + , ∗ ∗
= ,
= ,
Demikian seterusnya hingga hasil akhirnya tercapai apabila
nilai error (� ) = 0, dan iterasi berhenti pada iterasi yang ke-4
�
epoh
x1
x2
t
w1(L)
w2(L)
a
y
w1(B) w2(B)
1
0
0
0
0,1
0,3
0
0
0,0
0,1
0,3
1
0
1
1
0,1
0,3
0,3
0
1,0
0,1
0,5
1
1
0
1
0,1
0,5
0,1
0
1,0
0,3
0,5
1
1
1
1
0,3
0,5
0,8
1
0,0
0,3
0,5
2
0
0
0
0,3
0,5
0
0
0,0
0,3
0,5
2
0
1
1
0,3
0,5
0,5
0
1,0
0,3
0,7
2
1
0
1
0,3
0,7
0,3
0
1,0
0,5
0,7
2
1
1
1
0,5
0,7
1,2
1
0,0
0,5
0,7
�
epoh
x1
x2
t
w1(L)
w2(L)
a
y
w1(B) w2(B)
3
0
0
0
0,5
0,7
0
0
0,0
0,5
0,7
3
0
1
1
0,5
0,7
0,7
1
0,0
0,5
0,7
3
1
0
1
0,5
0,7
0,5
0
1,0
0,7
0,7
3
1
1
1
0,7
0,7
1,4
1
0,0
0,7
0,7
4
0
0
0
0,7
0,7
0
0
0,0
0,7
0,7
4
0
1
1
0,7
0,7
0,7
1
0,0
0,7
0,7
4
1
0
1
0,7
0,7
0,7
1
0,0
0,7
0,7
4
1
1
1
0,7
0,7
1,4
1
0,0
0,7
0,7