[vecD3] = thp_Denorma3,maxVec,minVec; [Denorm_label3] = thp_Denormlabel_data_testing3,maxVec,minVec;
error3=absDenorm_label3.-vecD3; akurasi3 = 1-error3Denorm_label3.100;
rata_akurasi = akurasi1+akurasi2+akurasi33; end
6. Kelas BackpropagationRoti_PisangSpesial.m
function [rata_akurasi,label_data_testing1,label_data_testing2,label_data_t
esting3,a1,a2,a3] = BackpropagationRoti_PisangSpesialhl1,hl2,epoch,data_kel,delayData
,ratenum,maxVec,minVec
UNTITLED Summary of this function goes here Detailed explanation goes here
Bagi Data Training dan Testing dataatribut=data_kel:,1:delayData-1;
datatarget=data_kel:,delayData; jum_data=sizedata_kel,1;
bagidata1=jum_data3; bagidata=roundbagidata1;
datapelatihan1=dataatribut1:bagidata,:; datapelatihan2=dataatributbagidata+1:bagidata+1+bagidata,:;
datapelatihan3=dataatributbagidata+1+bagidata+1:jum_data,:; label
label_datapelatihan1=datatarget1:bagidata,:; label_datapelatihan2=datatargetbagidata+1:bagidata+1+bagidata,:
; label_datapelatihan3=datatargetbagidata+1+bagidata+1:jum_data
,:; data training dan data testing 1
data_training1=[ datapelatihan2
datapelatihan3 ];
label_data_training1=[ label_datapelatihan2
label_datapelatihan3 ];
data_testing1= datapelatihan1; label_data_testing1=label_datapelatihan1;
if hl2==0
net=newffminmaxdata_training1.,[hl1,1],{ logsig
, purelin
}, t
raingdx ;
else net=newffminmaxdata_training1.,[hl1,hl2,1],{
logsig ,
logsig ,
purelin },
traingdx ;
end net=initnet;
net.trainParam.epochs = epoch; net.trainParam.lr = ratenum;
[net,tr]=trainnet,data_training1.,label_data_training1.; a1=simnet,data_testing1.;
[vecD1] = thp_Denorma1,maxVec,minVec; [Denorm_label1] = thp_Denormlabel_data_testing1,maxVec,minVec;
error1=absDenorm_label1.-vecD1 akurasi1 = 1-error1Denorm_label1.100;
data training dan data testing 2 data_training2=[
datapelatihan1 datapelatihan3
]; label_data_training2=[
label_datapelatihan1 label_datapelatihan3
]; data_testing2= datapelatihan2;
label_data_testing2=label_datapelatihan2; if
hl2==0 net=newffminmaxdata_training2.,[hl1,1],{
logsig ,
purelin },
t raingdx
; else
net=newffminmaxdata_training2.,[hl1,hl2,1],{ logsig
, logsig
, purelin
}, traingdx
; end
net=initnet; net.trainParam.epochs = epoch;
net.trainParam.lr = 0.05; [net,tr]=trainnet,data_training2.,label_data_training2.;
a2=simnet,data_testing2.; [vecD2] = thp_Denorma2,maxVec,minVec;
[Denorm_label2] = thp_Denormlabel_data_testing2,maxVec,minVec; error2=absDenorm_label2.-vecD2
akurasi2 = 1-error2Denorm_label2.100; data training dan data testing 3
data_training3=[ datapelatihan1
datapelatihan2 ];
label_data_training3=[ label_datapelatihan1
label_datapelatihan2 ];
data_testing3= datapelatihan3; label_data_testing3=label_datapelatihan3;
if hl2==0
net=newffminmaxdata_training3.,[hl1,1],{ logsig
, purelin
}, t
raingdx ;
else net=newffminmaxdata_training3.,[hl1,hl2,1],{
logsig ,
logsig ,
purelin },
traingdx ;
end net=initnet;
net.trainParam.epochs = epoch; net.trainParam.lr = 0.05;
[net,tr]=trainnet,data_training3.,label_data_training3.; a3=simnet,data_testing3.;
[vecD3] = thp_Denorma3,maxVec,minVec; [Denorm_label3] = thp_Denormlabel_data_testing3,maxVec,minVec;
error3=absDenorm_label3.-vecD3 akurasi3 = 1-error3Denorm_label3.100
rata_akurasi = akurasi1+akurasi2+akurasi33; end
7. Kelas tanggalIndex.m
function [cri_tanggal] = tanggalIndex tanggal,dataTanggal
UNTITLED Summary of this function goes here Detailed explanation goes here
[B K] = sizedataTanggal; for
i=1:B if
strcmpdataTanggali,1,tanggal cri_tanggal=i;
end end
8. Kelas BagiData.m
function [saveTrain,saveTarget]=BagiDatadata,index,delay
trainAwal=index-701; trainAwal=1;
targetAwal=trainAwal; jum_data=sizedata,1;
for i=1:jum_data-delay
for j=1:delay
saveTraini,j=datatrainAwal; trainAwal=trainAwal+1;
end saveTargeti=datatrainAwal;
trainAwal=targetAwal+1; targetAwal=targetAwal+1;
end
9. Rincian Optimalisasi Jaringan
Pada proses optimalisasi jaringan ini akan dilakukan data pelatihan 1002 data untuk setiap jenis roti dengan beberapa jumlah delay data yaitu 7, 14, 21, dan 28 dan total
epoch 1000 kali. Berikut hasil proses optimalisasi jaringan yang dilakukan : Fungsi Transfer Hidden Layer 1 = Logsig ;
Fungsi Transfer Hidden Layer 2 = Logsig ; Fungsi Aktivasi = Purelin Metode Train = traingdx
a. percobaan 1 Roti Pisang Coklat Delay Data : 7
b. Percobaan 2 Roti Pisang Coklat Delay Data : 14 Jumlah
Neuron 1
Akurasi Jumlah
Neuron 1
Jumlah Neuron
2 Akurasi
25 73.94
30 25
74.17 30
74.21 30
74.28 35
73.45 35
74.38 Jumlah
Neuron 1
Akurasi Jumlah
Neuron 1
Jumlah Neuron
2 Akurasi
25 74.88
25 25
74.45 30
74.13 30
73.90 35
73.88 35
73.62 40
74.17 40
74.05 45
72.87 45
73.47 50
73.14 50
73.39 55
72.89 55
72.04 60
71.37 60
72.91 65
71.55 65
72.90 70
69.53 70
72.62 PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI