kategori final untuk memberikan arti dan menentukan kegunaan dari output yang dihasilkan. Contoh dari tipe belajar ini adalah ART dan Kohonen self-organizing
feature maps. Pertimbangan penting dalam JST adalah penggunaan algoritma yang sesuai
untuk belajar. Kemampuan dua pendekatan paradigma belajar dalam beberapa algoritma belajar yang dibandingkan berdasarkan lamanya waktu training dan waktu
eksekusi diperlihatkan pada Tabel 7. Tabel 7. Kemampuan dua Pendekatan Paradigma Belajar dalam Beberapa
Algoritma Belajar Neuro Dimension Inc., 2001
Algoritma Belajar
Paradigma Belajar
Waktu Training Waktu
Eksekusi
Backpropagation Supervised
Lambat Cepat
ART2 Unsupervised
Cepat Cepat
Kohonen Unsupervised
Medium Cepat
Hopfield Supervised
Cepat Medium
Boltzmann Supervised
Lambat Lambat
2.5.5 Backpropagation
Menurut Fauset Laurene 1994, backpropagation adalah metoda turunan gradien gradient descent method untuk meminimalkan total squared error dari
output yang dikeluarkan oleh jaringan. Menurut Kusumadewi 2004, fungsi kinerja yang sering digunakan untuk backpropagation adalah mean square error mse,
fungsi ini akan mengambil rata-rata kuadrat error. Karakteristik dari jaringan backpropagation jaringan multilayer dan
feedforward yang dilatih oleh backpropagation ini adalah dapat digunakan untuk menyelesaikan masalah dalam bermacam-macam area. Aplikasi yang
menggunakan jaringan backpropagation dapat ditemukan dalam banyak bidang untuk masalah yang melibatkan pemetaan suatu input tertentu terhadap output yang
tertentu pula supervised learning.
2.6 Model Integrasi Sistem Pakar dan Jaringan Syaraf Tiruan
Ada beberapa teknik untuk mengintegrasikan sistem pakar dan jaringan syaraf tiruan dari berdiri secara independent sampai tingkat yang mempunyai
hubungan interaktif tinggi. Strategi integrasi tersebut adalah model stand-alone,
model transformasi, model Loose Coupling, model Tightly Coupling, model Full Integration. Gambar 6. menunjukkan model integrasi sistem pakar dan jaringan
syaraf tiruan.
• Model Stand Alone
Model ini mengkombinasikan sistem pakar ES dan jaringan syaraf NN tetapi keduanya tidak saling berinteraksi. Keduanya menggunakan komponen software
yang berbeda. Tujuan dikembangkannya model ini adalah untuk membandingkan kemampuan performansi antara sistem pakar dan jaringan
syaraf. Kelemahan model ini adalah keduanya tidak saling men-support satu
dengan yang lainnya untuk menutupi kelemahannya masing-masing.
• Model Transformasi
Model ini sama dengan model stand-alone, yang membedakan adalah adanya transformasi dari suatu sistem ke sistem lain. Ada dua bentuk model
transformasi : sistem pakar ditransformasikan ke jaringan syaraf dan jaringan syaraf ditransformasikan ke sistem pakar.
• Model Loose Coupling
Model ini merupakan bentuk nyata pertama dari integrasi sistem pakar dan sistem jaringan syaraf tiruan. Aplikasi ini dipecah ke dalam secara terpisah
menjadi komponen jaringan syaraf dan sistem pakar yang berkomunikasi lewat data file. Berbagai variasi model ini adalah preprocessors, postprocessors,
coprocessors dan user interface. Sebagai contoh dalam model preprocessing, jaringan syaraf bertindak sebagai front end yang mengkondisikan data-data yang
sesuai untuk dimasukkan ke dalam sistem pakar. Model postprocessing adalah kebalikan dari preprocessing.
• Model Tightly Coupling
Perbedaan model ini dengan model loosely coupling tidak jelas. Keduanya memakai komponen independent. Pada Model ini komunikasi data
menggunakan struktur data memory-resident, jadi lebih dari sekedar file data eksternal. Hal ini meningkatkan kemampuan interaktif dari model sebagai
tambahan untuk meningkatkan performansinya.
• Model Full Integration
Dalam model ini, sistem pakar dan jaringan syaraf terbentuk dalam satu sistem yang sama. Komponen jaringan syaraf mewakili knowledge base secara implisit
sebagai bobot hubungan. Model ini membagi struktur data dan representasi knowledge. Dengan demikian komponen dari sistem ini berkomunikasi sebagai
konsekuensi yang alami dari suatu integrasi.
Gambar 6. Model Integrasi Sistem Pakar dan Jaringan Syaraf Tiruan Rolston dan David, 1988
2.7 Run Chart dan Control Chart