回歸預(yù)測 | MATLAB實現(xiàn)GA-LSTM遺傳算法優(yōu)化長短期記憶網(wǎng)絡(luò)的數(shù)據(jù)多輸入單輸出回歸預(yù)測
效果一覽
基本介紹
MATLAB實現(xiàn)GA-LSTM遺傳算法優(yōu)化長短期記憶網(wǎng)絡(luò)的數(shù)據(jù)多輸入單輸出回歸預(yù)測
GA-LSTM遺傳算法優(yōu)化長短期記憶網(wǎng)絡(luò)回歸預(yù)測(Matlab完整程序和數(shù)據(jù))
輸入6個特征,輸出1個,即多輸入單輸出;
運(yùn)行環(huán)境Matlab2018及以上,運(yùn)行主程序main即可,其余為函數(shù)文件無需運(yùn)行,所有程序放在一個文件夾,data為數(shù)據(jù)集;
命令窗口輸出RMSEP、MAE、R2、MAPE。文章來源:http://www.zghlxwxcb.cn/news/detail-407887.html
程序設(shè)計
- 完整程序和數(shù)據(jù)下載方式1(資源處直接下載):MATLAB實現(xiàn)GA-LSTM遺傳算法優(yōu)化長短期記憶網(wǎng)絡(luò)的數(shù)據(jù)多輸入單輸出回歸預(yù)測
- 完整程序和數(shù)據(jù)下載方式2(訂閱《LSTM長短期記憶神經(jīng)網(wǎng)絡(luò)》專欄,同時可閱讀《LSTM長短期記憶神經(jīng)網(wǎng)絡(luò)》專欄收錄的所有內(nèi)容,數(shù)據(jù)訂閱后私信我獲取):MATLAB實現(xiàn)GA-LSTM遺傳算法優(yōu)化長短期記憶網(wǎng)絡(luò)的數(shù)據(jù)多輸入單輸出回歸預(yù)測
- 完整程序和數(shù)據(jù)下載方式3(訂閱《智能學(xué)習(xí)》專欄,同時獲取《智能學(xué)習(xí)》專欄收錄程序6份,數(shù)據(jù)訂閱后私信我獲取):MATLAB實現(xiàn)GA-LSTM遺傳算法優(yōu)化長短期記憶網(wǎng)絡(luò)的數(shù)據(jù)多輸入單輸出回歸預(yù)測
%% 記錄最佳參數(shù)
Best_pos(1, 2) = round(Best_pos(1, 2));
best_lr = Best_pos(1, 1);
best_hd = Best_pos(1, 2);
best_l2 = Best_pos(1, 3);
%% 建立模型
% ---------------------- 修改模型結(jié)構(gòu)時需對應(yīng)修改fical.m中的模型結(jié)構(gòu) --------------------------
layers = [
sequenceInputLayer(f_) % 輸入層
lstmLayer(best_hd) % LSTM層
reluLayer % Relu激活層
fullyConnectedLayer(outdim) % 輸出回歸層
regressionLayer];
%% 參數(shù)設(shè)置
% ---------------------- 修改模型參數(shù)時需對應(yīng)修改fical.m中的模型參數(shù) --------------------------
options = trainingOptions('adam', ... % Adam 梯度下降算法
'MaxEpochs', 500, ... % 最大訓(xùn)練次數(shù) 500
'InitialLearnRate', best_lr, ... % 初始學(xué)習(xí)率 best_lr
'LearnRateSchedule', 'piecewise', ... % 學(xué)習(xí)率下降
'LearnRateDropFactor', 0.5, ... % 學(xué)習(xí)率下降因子 0.1
'LearnRateDropPeriod', 400, ... % 經(jīng)過 400 次訓(xùn)練后 學(xué)習(xí)率為 best_lr * 0.5
'Shuffle', 'every-epoch', ... % 每次訓(xùn)練打亂數(shù)據(jù)集
'ValidationPatience', Inf, ... % 關(guān)閉驗證
'L2Regularization', best_l2, ... % 正則化參數(shù)
'Plots', 'training-progress', ... % 畫出曲線
'Verbose', false);
%% 訓(xùn)練模型
net = trainNetwork(p_train, t_train, layers, options);
%% 仿真驗證
t_sim1 = predict(net, p_train);
t_sim2 = predict(net, p_test );
%% 數(shù)據(jù)反歸一化
T_sim1 = mapminmax('reverse', t_sim1, ps_output);
T_sim2 = mapminmax('reverse', t_sim2, ps_output);
T_sim1=double(T_sim1);
T_sim2=double(T_sim2);
%% 均方根誤差
error1 = sqrt(sum((T_sim1 - T_train).^2) ./ M);
error2 = sqrt(sum((T_sim2 - T_test ).^2) ./ N);
%% 參數(shù)初始化
popsize=pop; %種群規(guī)模
lenchrom=dim; %變量字串長度
fun = fobj; %適應(yīng)度函數(shù)
pc=0.7; %設(shè)置交叉概率
pm=0.3; %設(shè)置變異概率
if(max(size(ub)) == 1)
ub = ub.*ones(dim,1);
lb = lb.*ones(dim,1);
end
maxgen=Max_iter; % 進(jìn)化次數(shù)
%種群
%% 產(chǎn)生初始粒子和速度
%隨機(jī)產(chǎn)生一個種群
GApop=initialization(pop, dim, ub, lb); %隨機(jī)產(chǎn)生個體
for i=1:popsize
%計算適應(yīng)度
fitness(i)=fun(GApop(i,:)); %染色體的適應(yīng)度
end
%找最好的染色體
[bestfitness bestindex]=min(fitness);
zbest=GApop(bestindex,:); %全局最佳
gbest=GApop; %個體最佳
fitnessgbest=fitness; %個體最佳適應(yīng)度值
fitnesszbest=bestfitness; %全局最佳適應(yīng)度值
%% 迭代尋優(yōu)
for i=1:maxgen
disp(['第',num2str(i),'次迭代'])
%種群更新 GA選擇更新
GApop=Select2(GApop,fitness,popsize);
% 交叉操作 GA
GApop=Cross(pc,lenchrom,GApop,popsize,lb,ub);
% 變異操作 GA變異
GApop=Mutation(pm,lenchrom,GApop,popsize,[i maxgen],lb,ub);
pop=GApop;
for j=1:popsize
%適應(yīng)度值
fitness(j)=fun(pop(j,:));
%個體最優(yōu)更新
if fitness(j) < fitnessgbest(j)
gbest(j,:) = pop(j,:);
fitnessgbest(j) = fitness(j);
end
%群體最優(yōu)更新
if fitness(j) < fitnesszbest
zbest = pop(j,:);
fitnesszbest = fitness(j);
end
end
curve(i)=fitnesszbest;
end
%% 邊界數(shù)目
Boundary_no= size(ub, 2);
%% 變量數(shù)目等于1
if Boundary_no == 1
Positions = rand(SearchAgents_no, dim) .* (ub - lb) + lb;
end
%% 如果每個變量有不同的上下界
if Boundary_no > 1
for i = 1 : dim
ub_i = ub(i);
lb_i = lb(i);
Positions(:, i) = rand(SearchAgents_no, 1) .* (ub_i - lb_i) + lb_i;
end
end
參考資料
[1] https://blog.csdn.net/kjm13182345320/article/details/129215161
[2] https://blog.csdn.net/kjm13182345320/article/details/128105718文章來源地址http://www.zghlxwxcb.cn/news/detail-407887.html
到了這里,關(guān)于回歸預(yù)測 | MATLAB實現(xiàn)GA-LSTM遺傳算法優(yōu)化長短期記憶網(wǎng)絡(luò)的數(shù)據(jù)多輸入單輸出回歸預(yù)測的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!