Fungsi Aktivasi pada Neural network

2.4.2 Jaringan Syaraf Lapis Ganda

Pada jaringan syaraf lapis ganda, input tidak langsung terkoneksi dengan output. Gambar 2.7 Neural network Multilayer

2.5 Fungsi Aktivasi pada Neural network

Fungsi aktivasi adalah operasi dasar pada artificial neuron yang meliputi penjumlahan bobot weight sinyal input dan mangaplikasikannya pada output. Untuk unit input, fungsi ini adalah fungsi identitas. Pada umumnya fungsi aktivasi yang sama di gunakan untuk semua neuron pada layer tertentu dari neural network, walaupun hal ini tidak diperlukan. Pada kebanyakan kasus, fungsi aktivasi non linear yang sering digunakan, karena hal ini terjadi sejak hasil dari memasukkan sinyal melalui dua atau lebih layer dari element pemrosesan linear contohnya element dengan fungsi aktivasi linear yang tidak jauh berbeda dengan apa yang didapatkan dengan menggunakan single layer. Fungsi-fungsi aktivasi yang umum di gunakan menurut [Fausett] adalah sebagai berikut: Universitas Sumatera Utara

2.5.1 Fungsi Identitas

Fungsi identitas disebut juga sebagai fungsi linear. Fungsi linear memiliki nilai output yang sama dengan nilai inputnya. y = x Gambar 2.8 Fungsi Identitas Linear f x x = untuk semua harga x Fungsi ini biasanya digunakan pada unit input untuk memberi nilai awal harga setiap unitnya.

2.5.2 Fungsi Tangga Binary

Fungsi tangga binary atau Fungsi Hard Limit Gambar 2.9 Fungsi HardLlimit. Neural network single layer sering menggunakan fungsi tangga untuk mengkonversi unit input, di mana nilai variabelnya bersifat kontinu yang menghasilkan nilai output bernilai biner yaitu 1 Universitas Sumatera Utara atau 0 atau bipolar 1 atau -1. Fungsi tangga binary ini juga dikenal sebagai fungsi threshold atau fungsi Heaviside. 1 jika x y jika x θ θ ≤ ⎧ = ⎨ ⎩ 0.1

2.5.3 Fungsi Symetric Hard Limit

Berfungsi mengkonversikan input dari suatu variabel yang bernilai kontinyu ke suatu output berupa nilai 1,0 atau -1. 1 1 jika x y jika x − ≤ ⎧ = ⎨ ≥ ⎩ 0.2 Gambar 2.10 Fungsi Symetric Hard Limit. 16

2.5.4 Fungsi Sigmoid Binary

Fungsi sigmoid kurva dengan bentuk S adalah fungsi aktivasi yang berguna. Fungsi sigmoid yang umum adalah fungsi logistik dan fungsi tangent hyperbolic. Kedua fungsi ini bermanfaat khususnya untuk penggunaan neural network karena hubungan yang sederhana antara nilai fungsi pada sebuah point dan nilai dari derivatif pada point itu mengurangi hambatan komputasi selama training. Universitas Sumatera Utara Gambar 2.11 Fungsi Sigmoid Binary. Untuk fungsi logistik yang memiliki range 0 sampai 1, sering di gunakan untuk menghasilkan output yang diinginkan bernilai binary atau berada pada interval 0 dan 1. Fungsi dengan range ini juga dikenal dengan binary sigmoid. 1 1 exp f x x σ = + − 0.3 1 f x f x f x σ ⎡ ⎤ = − ⎣ ⎦ 0.4

2.5.5 Fungsi Sigmoid Bipolar

Fungsi sigmoid bipolar adalah fungsi logistik yang memiliki range output dari -1 sampai 1. Gambar 2.12 Fungsi Sigmoid Bipolar. 1 2 1 1 1 exp 1 exp 1 exp g x f x x x x σ σ σ = − = − + − − − = + − 0.5 Universitas Sumatera Utara 1 1 2 g x g x g x σ ⎡ ⎤ ⎡ ⎤ = + − ⎣ ⎦ ⎣ ⎦ 0.6 Fungsi bipolar sigmoid erat kaitannya dengan fungsi tangent hyperbolic, yang sering juga di gunakan sebagai fungsi aktivasi ketika range output yang di inginkan bernilai -1 sampai dengan 1.

2.5.6 Fungsi Saturating Linear

Fungsi dirumuskan sebagai berikut: 1 0.5 0.5 0.5 0.5 0.5 jika x y x jika x jika x ≥ ⎧ ⎪ = + − ≤ ≤ ⎨ ⎪ ≤ − ⎩ 0.7 Gambar 2.13 Fungsi saturating linear.

2.5.7 Fungsi Symetric Saturating Linear

Fungsi dirumuskan sebagai berikut: 1 1 1 1 1 1 jika x y x jika x jika x ≥ ⎧ ⎪ = − ≤ ≤ ⎨ ⎪− ≤ − ⎩ 0.8 Universitas Sumatera Utara Gambar 2.14 Symetric Saturating Linear. 19

2.5.8 Fungsi Invers Sigmoid Bipolar

Fungsi merupakan invers Sigmoid Bipolar umum dipakai untuk recurrent network misal model jaringan Hopfield Haykin,1999. Gambar 2.15 Fungsi Invers Sigmoid Bipolar. 22

2.5.9 Fungsi Tangent Hyperbolic

exp exp exp exp 1 exp 2 1 exp 2 x x h x x x x x − − = + − − − = + − 0.9 Universitas Sumatera Utara 1 1 h x h x h x ⎡ ⎤ ⎡ ⎤ = + − ⎣ ⎦ ⎣ ⎦ 0.10

2.6 Training Pada Artificial Neural network