3.2 Perintah Matlab prediksi1

Misal JST Backpropagation dengan spesifikasi seperti dibawah ini:
 Arsitektur : 2-2-1
 Fungsi Aktifasi layer tersembunyi dan output fungsi sigmoid biner
 Bobot
 V10=0,2
 V20=0,5
 V11=-0,4
 V21=0,3
 V12=-0,3
 W0=0,1
 W1=-0,5
 W2=0,2
 Input : x1 : 0,1 0,3 0,5
X2

: 0,2 0,4 0,1

 Target: 0,3 0,2 0,4

Perintah Matlab
p=[0.1 0.3 0.5 ; 0.2 0.4 0.1];

t=[0.3 0.2 0.4];
net=newff(minmax(p),[2,1],{‘logsig’, ‘logsig’},’traingd’);
>> net.trainParam.goal=1e-5;
>> net.trainParam.epoch=1000;
>> net.trainParam.show=50;
>> net=train(net,p);

P=[0.161369000786782 0.13940204563336 0.11705743509048
0.106986624704957 0.134177812745869 0.173768686073958
0.420440597954367 0.689583005507474 0.636270653029111
0.365680566483084 0.226577498033045 0.167789142407553;0.13940204563336
0.11705743509048 0.106986624704957 0.134177812745869 0.173768686073958
0.420440597954367 0.689583005507474 0.636270653029111
0.365680566483084 0.226577498033045 0.167789142407553
0.143870967741936;0.11705743509048 0.106986624704957 0.134177812745869
0.173768686073958 0.420440597954367 0.689583005507474
0.636270653029111 0.365680566483084 0.226577498033045
0.167789142407553 0.143870967741936 0.12492525570417;0.106986624704957
0.134177812745869 0.173768686073958 0.420440597954367
0.689583005507474 0.636270653029111 0.365680566483084

0.226577498033045 0.167789142407553 0.143870967741936 0.12492525570417
0.10125885129819;0.134177812745869 0.173768686073958 0.420440597954367
0.689583005507474 0.636270653029111 0.365680566483084
0.226577498033045 0.167789142407553 0.143870967741936 0.12492525570417
0.10125885129819 0.1;0.173768686073958 0.420440597954367
0.689583005507474 0.636270653029111 0.365680566483084
0.226577498033045 0.167789142407553 0.143870967741936 0.12492525570417
0.10125885129819 0.1 0.117938630999213;0.420440597954367
0.689583005507474 0.636270653029111 0.365680566483084
0.226577498033045 0.167789142407553 0.143870967741936 0.12492525570417
0.10125885129819 0.1 0.117938630999213
0.367757671125098;0.689583005507474 0.636270653029111
0.365680566483084 0.226577498033045 0.167789142407553
0.143870967741936 0.12492525570417 0.10125885129819 0.1
0.117938630999213 0.367757671125098
0.483760818253344;0.636270653029111 0.365680566483084
0.226577498033045 0.167789142407553 0.143870967741936 0.12492525570417
0.10125885129819 0.1 0.117938630999213 0.367757671125098

0.483760818253344 0.9;0.365680566483084 0.226577498033045

0.167789142407553 0.143870967741936 0.12492525570417 0.10125885129819
0.1 0.117938630999213 0.367757671125098 0.483760818253344 0.9
0.701667977970102;0.226577498033045 0.167789142407553
0.143870967741936 0.12492525570417 0.10125885129819 0.1
0.117938630999213 0.367757671125098 0.483760818253344 0.9
0.701667977970102 0.518882769472856;0.167789142407553
0.143870967741936 0.12492525570417 0.10125885129819 0.1
0.117938630999213 0.367757671125098 0.483760818253344 0.9
0.701667977970102 0.518882769472856 0.239354838709677]
T=[0.143870967741936 0.12492525570417 0.10125885129819 0.1
0.117938630999213 0.367757671125098 0.483760818253344 0.9
0.701667977970102 0.518882769472856 0.239354838709677
0.183713611329662]
Net=newff(minmax(p),[2,1],{‘logsig’, ‘logsig’},‘traingdx’):
net.trainParam.goal=1e-5;
net.trainParam.epoch=1000;
net.trainParam.show=500;
net=train(net,p);
net=train(Net,p);