国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

分類預(yù)測 | MATLAB實現(xiàn)SSA-CNN-BiLSTM-Attention數(shù)據(jù)分類預(yù)測(SE注意力機制)

這篇具有很好參考價值的文章主要介紹了分類預(yù)測 | MATLAB實現(xiàn)SSA-CNN-BiLSTM-Attention數(shù)據(jù)分類預(yù)測(SE注意力機制)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

分類預(yù)測 | MATLAB實現(xiàn)SSA-CNN-BiLSTM-Attention數(shù)據(jù)分類預(yù)測(SE注意力機制)

分類效果

分類預(yù)測 | MATLAB實現(xiàn)SSA-CNN-BiLSTM-Attention數(shù)據(jù)分類預(yù)測(SE注意力機制),分類預(yù)測,SSA-CNN-BiLSTM,CNN-BiLSTM-Att,Attention,SE注意力機制,數(shù)據(jù)分類預(yù)測
分類預(yù)測 | MATLAB實現(xiàn)SSA-CNN-BiLSTM-Attention數(shù)據(jù)分類預(yù)測(SE注意力機制),分類預(yù)測,SSA-CNN-BiLSTM,CNN-BiLSTM-Att,Attention,SE注意力機制,數(shù)據(jù)分類預(yù)測

分類預(yù)測 | MATLAB實現(xiàn)SSA-CNN-BiLSTM-Attention數(shù)據(jù)分類預(yù)測(SE注意力機制),分類預(yù)測,SSA-CNN-BiLSTM,CNN-BiLSTM-Att,Attention,SE注意力機制,數(shù)據(jù)分類預(yù)測
分類預(yù)測 | MATLAB實現(xiàn)SSA-CNN-BiLSTM-Attention數(shù)據(jù)分類預(yù)測(SE注意力機制),分類預(yù)測,SSA-CNN-BiLSTM,CNN-BiLSTM-Att,Attention,SE注意力機制,數(shù)據(jù)分類預(yù)測

分類預(yù)測 | MATLAB實現(xiàn)SSA-CNN-BiLSTM-Attention數(shù)據(jù)分類預(yù)測(SE注意力機制),分類預(yù)測,SSA-CNN-BiLSTM,CNN-BiLSTM-Att,Attention,SE注意力機制,數(shù)據(jù)分類預(yù)測

基本描述

1.MATLAB實現(xiàn)SSA-CNN-BiLSTM-Attention數(shù)據(jù)分類預(yù)測(SE注意力機制),運行環(huán)境Matlab2021b及以上;
2.基于麻雀優(yōu)化算法(SSA)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)和雙向長短期記憶網(wǎng)絡(luò)(BiLSTM)、SE注意力機制的數(shù)據(jù)分類預(yù)測程序;
3.多特征輸入單輸出的二分類及多分類模型。程序內(nèi)注釋詳細,直接替換數(shù)據(jù)就可以用;SSA優(yōu)化算法優(yōu)化學(xué)習(xí)率、正則化系數(shù)、神經(jīng)元個數(shù),這3個關(guān)鍵參數(shù)。
程序語言為matlab,程序可出分類效果圖,混淆矩陣圖;
4.data為數(shù)據(jù)集,輸入12個特征,分四類;main為主程序,其余為函數(shù)文件,無需運行。
5.適用領(lǐng)域:適用于各種數(shù)據(jù)分類場景,如滾動軸承故障、變壓器油氣故障、電力系統(tǒng)輸電線路故障區(qū)域、絕緣子、配網(wǎng)、電能質(zhì)量擾動,等領(lǐng)域的識別、診斷和分類。
使用便捷:直接使用EXCEL表格導(dǎo)入數(shù)據(jù),無需大幅修改程序。內(nèi)部有詳細注釋,易于理解。

模型描述

注意力機制模塊:
SEBlock(Squeeze-and-Excitation Block)是一種聚焦于通道維度而提出一種新的結(jié)構(gòu)單元,為模型添加了通道注意力機制,該機制通過添加各個特征通道的重要程度的權(quán)重,針對不同的任務(wù)增強或者抑制對應(yīng)的通道,以此來提取有用的特征。該模塊的內(nèi)部操作流程如圖,總體分為三步:首先是Squeeze 壓縮操作,對空間維度的特征進行壓縮,保持特征通道數(shù)量不變。融合全局信息即全局池化,并將每個二維特征通道轉(zhuǎn)換為實數(shù)。實數(shù)計算公式如公式所示。該實數(shù)由k個通道得到的特征之和除以空間維度的值而得,空間維數(shù)為H*W。其次是Excitation激勵操作,它由兩層全連接層和Sigmoid函數(shù)組成。如公式所示,s為激勵操作的輸出,σ為激活函數(shù)sigmoid,W2和W1分別是兩個完全連接層的相應(yīng)參數(shù),δ是激活函數(shù)ReLU,對特征先降維再升維。最后是Reweight操作,對之前的輸入特征進行逐通道加權(quán),完成原始特征在各通道上的重新分配。

分類預(yù)測 | MATLAB實現(xiàn)SSA-CNN-BiLSTM-Attention數(shù)據(jù)分類預(yù)測(SE注意力機制),分類預(yù)測,SSA-CNN-BiLSTM,CNN-BiLSTM-Att,Attention,SE注意力機制,數(shù)據(jù)分類預(yù)測
分類預(yù)測 | MATLAB實現(xiàn)SSA-CNN-BiLSTM-Attention數(shù)據(jù)分類預(yù)測(SE注意力機制),分類預(yù)測,SSA-CNN-BiLSTM,CNN-BiLSTM-Att,Attention,SE注意力機制,數(shù)據(jù)分類預(yù)測

程序設(shè)計

  • 完整程序和數(shù)據(jù)獲取方式:私信博主回復(fù)MATLAB實現(xiàn)SSA-CNN-BiLSTM-Attention數(shù)據(jù)分類預(yù)測(SE注意力機制)。
%%  優(yōu)化算法參數(shù)設(shè)置
SearchAgents_no = 8;                   % 數(shù)量
Max_iteration = 5;                    % 最大迭代次數(shù)
dim = 3;                               % 優(yōu)化參數(shù)個數(shù)
lb = [1e-3,10 1e-4];                 % 參數(shù)取值下界(學(xué)習(xí)率,隱藏層節(jié)點,正則化系數(shù))
ub = [1e-2, 30,1e-1];                 % 參數(shù)取值上界(學(xué)習(xí)率,隱藏層節(jié)點,正則化系數(shù))

fitness = @(x)fical(x,num_dim,num_class,p_train,t_train,T_train);

[Best_score,Best_pos,curve]=SSA(SearchAgents_no,Max_iteration,lb ,ub,dim,fitness)
Best_pos(1, 2) = round(Best_pos(1, 2));   
best_hd  = Best_pos(1, 2); % 最佳隱藏層節(jié)點數(shù)
best_lr= Best_pos(1, 1);% 最佳初始學(xué)習(xí)率
best_l2 = Best_pos(1, 3);% 最佳L2正則化系數(shù)
 
%% 建立模型
lgraph = layerGraph();                                                   % 建立空白網(wǎng)絡(luò)結(jié)構(gòu)
tempLayers = [
    sequenceInputLayer([num_dim, 1, 1], "Name", "sequence")              % 建立輸入層,輸入數(shù)據(jù)結(jié)構(gòu)為[num_dim, 1, 1]
    sequenceFoldingLayer("Name", "seqfold")];                            % 建立序列折疊層
lgraph = addLayers(lgraph, tempLayers);                                  % 將上述網(wǎng)絡(luò)結(jié)構(gòu)加入空白結(jié)構(gòu)中
tempLayers = [
    convolution2dLayer([3, 1], 16, "Name", "conv_1", "Padding", "same")  % 建立卷積層,卷積核大小[3, 1]16個特征圖
    reluLayer("Name", "relu_1")                                          % Relu 激活層

lgraph = addLayers(lgraph, tempLayers);                                  % 將上述網(wǎng)絡(luò)結(jié)構(gòu)加入空白結(jié)構(gòu)中

tempLayers = [
    sequenceUnfoldingLayer("Name", "sequnfold")                      % 建立序列反折疊層
    flattenLayer("Name", "flatten")                                  % 網(wǎng)絡(luò)鋪平層
    bilstmLayer(best_hd, "Name", "bilstm", "OutputMode","last")              % BiLSTM層
    fullyConnectedLayer(num_class, "Name", "fc")                     % 全連接層
    softmaxLayer("Name", "softmax")                                  % softmax激活層
    classificationLayer("Name", "classification")];                  % 分類層
lgraph = addLayers(lgraph, tempLayers);                              % 將上述網(wǎng)絡(luò)結(jié)構(gòu)加入空白結(jié)構(gòu)中
lgraph = connectLayers(lgraph, "seqfold/out", "conv_1");             % 折疊層輸出 連接 卷積層輸入
lgraph = connectLayers(lgraph, "seqfold/miniBatchSize", "sequnfold/miniBatchSize"); 

%% 參數(shù)設(shè)置
options = trainingOptions('adam', ...     % Adam 梯度下降算法
    'MaxEpochs', 500,...                 % 最大訓(xùn)練次數(shù) 
    'InitialLearnRate', best_lr,...          % 初始學(xué)習(xí)率為0.001
    'L2Regularization', best_l2,...         % L2正則化參數(shù)
    'LearnRateSchedule', 'piecewise',...  % 學(xué)習(xí)率下降
    'LearnRateDropFactor', 0.1,...        % 學(xué)習(xí)率下降因子 0.1
    'LearnRateDropPeriod', 400,...        % 經(jīng)過訓(xùn)練后 學(xué)習(xí)率為 0.001*0.1
    'Shuffle', 'every-epoch',...          % 每次訓(xùn)練打亂數(shù)據(jù)集
    'ValidationPatience', Inf,...         % 關(guān)閉驗證
    'Plots', 'training-progress',...      % 畫出曲線
    'Verbose', false);

%% 訓(xùn)練
net = trainNetwork(p_train, t_train, lgraph, options);

參考資料

[1] https://blog.csdn.net/kjm13182345320/article/details/129036772?spm=1001.2014.3001.5502
[2] https://blog.csdn.net/kjm13182345320/article/details/128690229文章來源地址http://www.zghlxwxcb.cn/news/detail-721392.html

到了這里,關(guān)于分類預(yù)測 | MATLAB實現(xiàn)SSA-CNN-BiLSTM-Attention數(shù)據(jù)分類預(yù)測(SE注意力機制)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包