3.2 Perintah Matlab prediksi1
Misal JST Backpropagation dengan spesifikasi seperti dibawah ini:
Arsitektur : 2-2-1
Fungsi Aktifasi layer tersembunyi dan output fungsi sigmoid biner
Bobot
V10=0,2
V20=0,5
V11=-0,4
V21=0,3
V12=-0,3
W0=0,1
W1=-0,5
W2=0,2
Input : x1 : 0,1 0,3 0,5
X2
: 0,2 0,4 0,1
Target: 0,3 0,2 0,4
Perintah Matlab
p=[0.1 0.3 0.5 ; 0.2 0.4 0.1];
t=[0.3 0.2 0.4];
net=newff(minmax(p),[2,1],{‘logsig’, ‘logsig’},’traingd’);
>> net.trainParam.goal=1e-5;
>> net.trainParam.epoch=1000;
>> net.trainParam.show=50;
>> net=train(net,p);
P=[0.161369000786782 0.13940204563336 0.11705743509048
0.106986624704957 0.134177812745869 0.173768686073958
0.420440597954367 0.689583005507474 0.636270653029111
0.365680566483084 0.226577498033045 0.167789142407553;0.13940204563336
0.11705743509048 0.106986624704957 0.134177812745869 0.173768686073958
0.420440597954367 0.689583005507474 0.636270653029111
0.365680566483084 0.226577498033045 0.167789142407553
0.143870967741936;0.11705743509048 0.106986624704957 0.134177812745869
0.173768686073958 0.420440597954367 0.689583005507474
0.636270653029111 0.365680566483084 0.226577498033045
0.167789142407553 0.143870967741936 0.12492525570417;0.106986624704957
0.134177812745869 0.173768686073958 0.420440597954367
0.689583005507474 0.636270653029111 0.365680566483084
0.226577498033045 0.167789142407553 0.143870967741936 0.12492525570417
0.10125885129819;0.134177812745869 0.173768686073958 0.420440597954367
0.689583005507474 0.636270653029111 0.365680566483084
0.226577498033045 0.167789142407553 0.143870967741936 0.12492525570417
0.10125885129819 0.1;0.173768686073958 0.420440597954367
0.689583005507474 0.636270653029111 0.365680566483084
0.226577498033045 0.167789142407553 0.143870967741936 0.12492525570417
0.10125885129819 0.1 0.117938630999213;0.420440597954367
0.689583005507474 0.636270653029111 0.365680566483084
0.226577498033045 0.167789142407553 0.143870967741936 0.12492525570417
0.10125885129819 0.1 0.117938630999213
0.367757671125098;0.689583005507474 0.636270653029111
0.365680566483084 0.226577498033045 0.167789142407553
0.143870967741936 0.12492525570417 0.10125885129819 0.1
0.117938630999213 0.367757671125098
0.483760818253344;0.636270653029111 0.365680566483084
0.226577498033045 0.167789142407553 0.143870967741936 0.12492525570417
0.10125885129819 0.1 0.117938630999213 0.367757671125098
0.483760818253344 0.9;0.365680566483084 0.226577498033045
0.167789142407553 0.143870967741936 0.12492525570417 0.10125885129819
0.1 0.117938630999213 0.367757671125098 0.483760818253344 0.9
0.701667977970102;0.226577498033045 0.167789142407553
0.143870967741936 0.12492525570417 0.10125885129819 0.1
0.117938630999213 0.367757671125098 0.483760818253344 0.9
0.701667977970102 0.518882769472856;0.167789142407553
0.143870967741936 0.12492525570417 0.10125885129819 0.1
0.117938630999213 0.367757671125098 0.483760818253344 0.9
0.701667977970102 0.518882769472856 0.239354838709677]
T=[0.143870967741936 0.12492525570417 0.10125885129819 0.1
0.117938630999213 0.367757671125098 0.483760818253344 0.9
0.701667977970102 0.518882769472856 0.239354838709677
0.183713611329662]
Net=newff(minmax(p),[2,1],{‘logsig’, ‘logsig’},‘traingdx’):
net.trainParam.goal=1e-5;
net.trainParam.epoch=1000;
net.trainParam.show=500;
net=train(net,p);
net=train(Net,p);
Arsitektur : 2-2-1
Fungsi Aktifasi layer tersembunyi dan output fungsi sigmoid biner
Bobot
V10=0,2
V20=0,5
V11=-0,4
V21=0,3
V12=-0,3
W0=0,1
W1=-0,5
W2=0,2
Input : x1 : 0,1 0,3 0,5
X2
: 0,2 0,4 0,1
Target: 0,3 0,2 0,4
Perintah Matlab
p=[0.1 0.3 0.5 ; 0.2 0.4 0.1];
t=[0.3 0.2 0.4];
net=newff(minmax(p),[2,1],{‘logsig’, ‘logsig’},’traingd’);
>> net.trainParam.goal=1e-5;
>> net.trainParam.epoch=1000;
>> net.trainParam.show=50;
>> net=train(net,p);
P=[0.161369000786782 0.13940204563336 0.11705743509048
0.106986624704957 0.134177812745869 0.173768686073958
0.420440597954367 0.689583005507474 0.636270653029111
0.365680566483084 0.226577498033045 0.167789142407553;0.13940204563336
0.11705743509048 0.106986624704957 0.134177812745869 0.173768686073958
0.420440597954367 0.689583005507474 0.636270653029111
0.365680566483084 0.226577498033045 0.167789142407553
0.143870967741936;0.11705743509048 0.106986624704957 0.134177812745869
0.173768686073958 0.420440597954367 0.689583005507474
0.636270653029111 0.365680566483084 0.226577498033045
0.167789142407553 0.143870967741936 0.12492525570417;0.106986624704957
0.134177812745869 0.173768686073958 0.420440597954367
0.689583005507474 0.636270653029111 0.365680566483084
0.226577498033045 0.167789142407553 0.143870967741936 0.12492525570417
0.10125885129819;0.134177812745869 0.173768686073958 0.420440597954367
0.689583005507474 0.636270653029111 0.365680566483084
0.226577498033045 0.167789142407553 0.143870967741936 0.12492525570417
0.10125885129819 0.1;0.173768686073958 0.420440597954367
0.689583005507474 0.636270653029111 0.365680566483084
0.226577498033045 0.167789142407553 0.143870967741936 0.12492525570417
0.10125885129819 0.1 0.117938630999213;0.420440597954367
0.689583005507474 0.636270653029111 0.365680566483084
0.226577498033045 0.167789142407553 0.143870967741936 0.12492525570417
0.10125885129819 0.1 0.117938630999213
0.367757671125098;0.689583005507474 0.636270653029111
0.365680566483084 0.226577498033045 0.167789142407553
0.143870967741936 0.12492525570417 0.10125885129819 0.1
0.117938630999213 0.367757671125098
0.483760818253344;0.636270653029111 0.365680566483084
0.226577498033045 0.167789142407553 0.143870967741936 0.12492525570417
0.10125885129819 0.1 0.117938630999213 0.367757671125098
0.483760818253344 0.9;0.365680566483084 0.226577498033045
0.167789142407553 0.143870967741936 0.12492525570417 0.10125885129819
0.1 0.117938630999213 0.367757671125098 0.483760818253344 0.9
0.701667977970102;0.226577498033045 0.167789142407553
0.143870967741936 0.12492525570417 0.10125885129819 0.1
0.117938630999213 0.367757671125098 0.483760818253344 0.9
0.701667977970102 0.518882769472856;0.167789142407553
0.143870967741936 0.12492525570417 0.10125885129819 0.1
0.117938630999213 0.367757671125098 0.483760818253344 0.9
0.701667977970102 0.518882769472856 0.239354838709677]
T=[0.143870967741936 0.12492525570417 0.10125885129819 0.1
0.117938630999213 0.367757671125098 0.483760818253344 0.9
0.701667977970102 0.518882769472856 0.239354838709677
0.183713611329662]
Net=newff(minmax(p),[2,1],{‘logsig’, ‘logsig’},‘traingdx’):
net.trainParam.goal=1e-5;
net.trainParam.epoch=1000;
net.trainParam.show=500;
net=train(net,p);
net=train(Net,p);