国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

分類預(yù)測(cè) | MATLAB實(shí)現(xiàn)CNN-GRU-Attention多輸入分類預(yù)測(cè)

這篇具有很好參考價(jià)值的文章主要介紹了分類預(yù)測(cè) | MATLAB實(shí)現(xiàn)CNN-GRU-Attention多輸入分類預(yù)測(cè)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

分類預(yù)測(cè) | MATLAB實(shí)現(xiàn)CNN-GRU-Attention多輸入分類預(yù)測(cè)

分類效果

分類預(yù)測(cè) | MATLAB實(shí)現(xiàn)CNN-GRU-Attention多輸入分類預(yù)測(cè)
分類預(yù)測(cè) | MATLAB實(shí)現(xiàn)CNN-GRU-Attention多輸入分類預(yù)測(cè)
分類預(yù)測(cè) | MATLAB實(shí)現(xiàn)CNN-GRU-Attention多輸入分類預(yù)測(cè)
分類預(yù)測(cè) | MATLAB實(shí)現(xiàn)CNN-GRU-Attention多輸入分類預(yù)測(cè)
分類預(yù)測(cè) | MATLAB實(shí)現(xiàn)CNN-GRU-Attention多輸入分類預(yù)測(cè)
分類預(yù)測(cè) | MATLAB實(shí)現(xiàn)CNN-GRU-Attention多輸入分類預(yù)測(cè)
分類預(yù)測(cè) | MATLAB實(shí)現(xiàn)CNN-GRU-Attention多輸入分類預(yù)測(cè)

模型描述

Matlab實(shí)現(xiàn)CNN-GRU-Attention多變量分類預(yù)測(cè)
1.data為數(shù)據(jù)集,格式為excel,12個(gè)輸入特征,輸出四個(gè)類別;
2.MainCNN-GRU-AttentionNC.m為主程序文件,運(yùn)行即可;

注意程序和數(shù)據(jù)放在一個(gè)文件夾,運(yùn)行環(huán)境為Matlab2020b及以上。
4.注意力機(jī)制模塊:
SEBlock(Squeeze-and-Excitation Block)是一種聚焦于通道維度而提出一種新的結(jié)構(gòu)單元,為模型添加了通道注意力機(jī)制,該機(jī)制通過添加各個(gè)特征通道的重要程度的權(quán)重,針對(duì)不同的任務(wù)增強(qiáng)或者抑制對(duì)應(yīng)的通道,以此來提取有用的特征。該模塊的內(nèi)部操作流程如圖,總體分為三步:首先是Squeeze 壓縮操作,對(duì)空間維度的特征進(jìn)行壓縮,保持特征通道數(shù)量不變。融合全局信息即全局池化,并將每個(gè)二維特征通道轉(zhuǎn)換為實(shí)數(shù)。實(shí)數(shù)計(jì)算公式如公式所示。該實(shí)數(shù)由k個(gè)通道得到的特征之和除以空間維度的值而得,空間維數(shù)為H*W。其次是Excitation激勵(lì)操作,它由兩層全連接層和Sigmoid函數(shù)組成。如公式所示,s為激勵(lì)操作的輸出,σ為激活函數(shù)sigmoid,W2和W1分別是兩個(gè)完全連接層的相應(yīng)參數(shù),δ是激活函數(shù)ReLU,對(duì)特征先降維再升維。最后是Reweight操作,對(duì)之前的輸入特征進(jìn)行逐通道加權(quán),完成原始特征在各通道上的重新分配。

分類預(yù)測(cè) | MATLAB實(shí)現(xiàn)CNN-GRU-Attention多輸入分類預(yù)測(cè)
分類預(yù)測(cè) | MATLAB實(shí)現(xiàn)CNN-GRU-Attention多輸入分類預(yù)測(cè)

程序設(shè)計(jì)

  • 完整程序和數(shù)據(jù)獲取方式1:同等價(jià)值程序兌換;
  • 完整程序和數(shù)據(jù)獲取方式2:私信博主獲取。
%%  數(shù)據(jù)平鋪
%   將數(shù)據(jù)平鋪成1維數(shù)據(jù)只是一種處理方式
%   也可以平鋪成2維數(shù)據(jù),以及3維數(shù)據(jù),需要修改對(duì)應(yīng)模型結(jié)構(gòu)
%   但是應(yīng)該始終和輸入層數(shù)據(jù)結(jié)構(gòu)保持一致
p_train =  double(reshape(P_train, 15, 1, 1, M));
p_test  =  double(reshape(P_test , 15, 1, 1, N));
%-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- 
%%  構(gòu)造網(wǎng)絡(luò)結(jié)構(gòu)
layers = [
 imageInputLayer([15, 1, 1])             % 輸入層
 
 convolution2dLayer([2, 1], 16)          % 卷積核大小為2*1 生成16個(gè)卷積
 batchNormalizationLayer                 % 批歸一化層
 reluLayer                               % relu激活層
 
 maxPooling2dLayer([2, 1], 'Stride', 1)  % 最大池化層 大小為2*1 步長(zhǎng)為2
 
 convolution2dLayer([2, 1], 32)          % 卷積核大小為2*1 生成32個(gè)卷積
 batchNormalizationLayer                 % 批歸一化層
 reluLayer                               % relu激活層
 
 maxPooling2dLayer([2, 1], 'Stride', 1)  % 最大池化層,大小為2*2,步長(zhǎng)為2

 fullyConnectedLayer(4)                  % 全連接層(類別數(shù)) 
 softmaxLayer                            % 損失函數(shù)層
 classificationLayer];                   % 分類層
%--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
%%  創(chuàng)建網(wǎng)絡(luò)
layers = [ ...
  sequenceInputLayer(12)               % 輸入層
  
  gruLayer(6, 'OutputMode', 'last')    % GRU層
  reluLayer                            % Relu激活層
  
  fullyConnectedLayer(4)               % 全連接層
  softmaxLayer                         % 分類層
  classificationLayer];

%%  參數(shù)設(shè)置
options = trainingOptions('adam', ...       % Adam 梯度下降算法
    'MiniBatchSize', 100, ...               % 批大小
    'MaxEpochs', 1000, ...                  % 最大迭代次數(shù)
    'InitialLearnRate', 1e-2, ...           % 初始學(xué)習(xí)率
    'LearnRateSchedule', 'piecewise', ...   % 學(xué)習(xí)率下降
    'LearnRateDropFactor', 0.1, ...         % 學(xué)習(xí)率下降因子
    'LearnRateDropPeriod', 700, ...         % 經(jīng)過700次訓(xùn)練后 學(xué)習(xí)率為 0.01 * 0.1
    'Shuffle', 'every-epoch', ...           % 每次訓(xùn)練打亂數(shù)據(jù)集
    'ValidationPatience', Inf, ...          % 關(guān)閉驗(yàn)證
    'Plots', 'training-progress', ...       % 畫出曲線
    'Verbose', false);
%--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
%%  訓(xùn)練模型
net = trainNetwork(p_train, t_train, layers, options);

參考資料

[1] https://blog.csdn.net/kjm13182345320/article/details/129943065?spm=1001.2014.3001.5501
[2] https://blog.csdn.net/kjm13182345320/article/details/129919734?spm=1001.2014.3001.5501文章來源地址http://www.zghlxwxcb.cn/news/detail-403498.html

到了這里,關(guān)于分類預(yù)測(cè) | MATLAB實(shí)現(xiàn)CNN-GRU-Attention多輸入分類預(yù)測(cè)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 多維時(shí)序 | MATLAB實(shí)現(xiàn)SABO-CNN-GRU-Attention多變量時(shí)間序列預(yù)測(cè)

    多維時(shí)序 | MATLAB實(shí)現(xiàn)SABO-CNN-GRU-Attention多變量時(shí)間序列預(yù)測(cè)

    預(yù)測(cè)效果 基本介紹 多維時(shí)序 | MATLAB實(shí)現(xiàn)SABO-CNN-GRU-Attention多變量時(shí)間序列預(yù)測(cè)。 模型描述 MATLAB實(shí)現(xiàn)SABO-CNN-GRU-Attention多變量時(shí)間序列預(yù)測(cè) 1.無Attention適用于MATLAB 2020版及以上版本;融合Attention要求Matlab2023版以上; 2.基于減法平均優(yōu)化器優(yōu)化算法(SABO)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)和

    2024年02月11日
    瀏覽(21)
  • 回歸預(yù)測(cè) | MATLAB實(shí)現(xiàn)SSA-CNN-GRU-Attention多變量回歸預(yù)測(cè)(SE注意力機(jī)制)

    回歸預(yù)測(cè) | MATLAB實(shí)現(xiàn)SSA-CNN-GRU-Attention多變量回歸預(yù)測(cè)(SE注意力機(jī)制)

    預(yù)測(cè)效果 基本描述 1.Matlab實(shí)現(xiàn)SSA-CNN-GRU-Attention麻雀優(yōu)化卷積門控循環(huán)單元注意力機(jī)制多變量回歸預(yù)測(cè); 2.運(yùn)行環(huán)境為Matlab2021b; 3.data為數(shù)據(jù)集,excel數(shù)據(jù),輸入多個(gè)特征,輸出單個(gè)變量,多變量回歸預(yù)測(cè), main.m為主程序,運(yùn)行即可,所有文件放在一個(gè)文件夾; 4.命令窗口輸出

    2024年01月16日
    瀏覽(21)
  • 分類預(yù)測(cè) | MATLAB實(shí)現(xiàn)CNN-BiGRU-Attention多輸入分類預(yù)測(cè)

    分類預(yù)測(cè) | MATLAB實(shí)現(xiàn)CNN-BiGRU-Attention多輸入分類預(yù)測(cè)

    預(yù)測(cè)效果 基本介紹 Matlab實(shí)現(xiàn)CNN-BiGRU-Attention多特征分類預(yù)測(cè),卷積雙向門控循環(huán)單元結(jié)合注意力機(jī)制分類預(yù)測(cè)。 1.data為數(shù)據(jù)集,格式為excel,12個(gè)輸入特征,輸出4類標(biāo)簽; 2.MainCNN_BiGRU_AttentionNC.m為主程序文件,運(yùn)行即可; 3.可視化展示分類準(zhǔn)確率,可在下載區(qū)獲取數(shù)據(jù)和程序

    2024年02月13日
    瀏覽(35)
  • 分類預(yù)測(cè) | MATLAB實(shí)現(xiàn)1D-2D-CNN-GRU的多通道輸入數(shù)據(jù)分類預(yù)測(cè)

    分類預(yù)測(cè) | MATLAB實(shí)現(xiàn)1D-2D-CNN-GRU的多通道輸入數(shù)據(jù)分類預(yù)測(cè)

    分類效果 基本介紹 結(jié)合1D時(shí)序-2D圖像多模態(tài)融合的CNN-GRU故障識(shí)別算法,基于一維時(shí)序信號(hào)和二維圖像多元信息融合的卷積神經(jīng)網(wǎng)絡(luò)結(jié)門控循環(huán)單元網(wǎng)絡(luò)的數(shù)據(jù)分類預(yù)測(cè)/故障識(shí)別算法。要求2020版以上。 采用雙支路輸入,一路為圖像輸入經(jīng)CNN提取特征,一路為特征序列輸入經(jīng)

    2024年02月12日
    瀏覽(38)
  • 分類預(yù)測(cè) | MATLAB實(shí)現(xiàn)SCNGO-CNN-LSTM-Attention數(shù)據(jù)分類預(yù)測(cè)

    分類預(yù)測(cè) | MATLAB實(shí)現(xiàn)SCNGO-CNN-LSTM-Attention數(shù)據(jù)分類預(yù)測(cè)

    分類效果 基本描述 1.SCNGO-CNN-LSTM-Attention數(shù)據(jù)分類預(yù)測(cè)程序,改進(jìn)算法,融合正余弦和折射反向?qū)W習(xí)的北方蒼鷹優(yōu)化算法; 2.程序平臺(tái):無Attention適用于MATLAB 2020版及以上版本;融合Attention要求Matlab2023版以上; 3.基于融合正余弦和折射反向?qū)W習(xí)的北方蒼鷹優(yōu)化算法(SCNGO)、卷

    2024年02月11日
    瀏覽(30)
  • 分類預(yù)測(cè) | MATLAB實(shí)現(xiàn)WOA-CNN-BiGRU-Attention數(shù)據(jù)分類預(yù)測(cè)

    分類預(yù)測(cè) | MATLAB實(shí)現(xiàn)WOA-CNN-BiGRU-Attention數(shù)據(jù)分類預(yù)測(cè)

    分類效果 基本描述 1.Matlab實(shí)現(xiàn)WOA-CNN-BiGRU-Attention多特征分類預(yù)測(cè),多特征輸入模型,運(yùn)行環(huán)境Matlab2023及以上; 2.通過WOA優(yōu)化算法優(yōu)化學(xué)習(xí)率、卷積核大小、神經(jīng)元個(gè)數(shù),這3個(gè)關(guān)鍵參數(shù),以測(cè)試集精度最高為目標(biāo)函數(shù); 3.多特征輸入單輸出的二分類及多分類模型。程序內(nèi)注釋

    2024年02月12日
    瀏覽(22)
  • 分類預(yù)測(cè) | MATLAB實(shí)現(xiàn)WOA-CNN-BiLSTM-Attention數(shù)據(jù)分類預(yù)測(cè)

    分類預(yù)測(cè) | MATLAB實(shí)現(xiàn)WOA-CNN-BiLSTM-Attention數(shù)據(jù)分類預(yù)測(cè)

    分類效果 基本描述 1.MATLAB實(shí)現(xiàn)WOA-CNN-BiLSTM-Attention數(shù)據(jù)分類預(yù)測(cè),運(yùn)行環(huán)境Matlab2021b及以上; 2.基于鯨魚優(yōu)化算法(WOA)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)和雙向長(zhǎng)短期記憶網(wǎng)絡(luò)(BiLSTM)的數(shù)據(jù)分類預(yù)測(cè)程序; 3.多特征輸入單輸出的二分類及多分類模型。程序內(nèi)注釋詳細(xì),直接替換數(shù)據(jù)就

    2024年02月12日
    瀏覽(19)
  • 分類預(yù)測(cè) | MATLAB實(shí)現(xiàn)SMA-CNN-BiLSTM-Attention多輸入分類預(yù)測(cè)

    分類預(yù)測(cè) | MATLAB實(shí)現(xiàn)SMA-CNN-BiLSTM-Attention多輸入分類預(yù)測(cè)

    分類效果 基本介紹 1.MATLAB實(shí)現(xiàn)SMA-CNN-BiLSTM-Attention多輸入分類預(yù)測(cè),CNN-BiLSTM結(jié)合注意力機(jī)制多輸入分類預(yù)測(cè)。 2.SMA-CNN-BiLSTM-Attention多變量數(shù)據(jù)分類預(yù)測(cè),黏菌優(yōu)化卷積神經(jīng)網(wǎng)絡(luò)結(jié)合雙向長(zhǎng)短期記憶網(wǎng)絡(luò)融合注意力機(jī)制的數(shù)據(jù)分類預(yù)測(cè),多行變量特征輸入。 3.優(yōu)化了學(xué)習(xí)率、卷

    2024年02月13日
    瀏覽(31)
  • 分類預(yù)測(cè) | Matlab實(shí)現(xiàn)KOA-CNN-GRU-selfAttention多特征分類預(yù)測(cè)(自注意力機(jī)制)

    分類預(yù)測(cè) | Matlab實(shí)現(xiàn)KOA-CNN-GRU-selfAttention多特征分類預(yù)測(cè)(自注意力機(jī)制)

    分類效果 基本描述 1.Matlab實(shí)現(xiàn)KOA-CNN-GRU-selfAttention開普勒算法優(yōu)化卷積門控循環(huán)單元融合自注意力多特征分類預(yù)測(cè),多特征輸入模型,運(yùn)行環(huán)境Matlab2023b及以上; 2.基于開普勒算法(KOA)優(yōu)化卷積門控循環(huán)單元(CNN-GRU)結(jié)合自注意力機(jī)制(selfAttention)分類預(yù)測(cè)。2023年新算法KOA,M

    2024年02月08日
    瀏覽(23)
  • 分類預(yù)測(cè) | MATLAB實(shí)現(xiàn)BO-CNN-GRU貝葉斯優(yōu)化卷積門控循環(huán)單元多輸入分類預(yù)測(cè)

    分類預(yù)測(cè) | MATLAB實(shí)現(xiàn)BO-CNN-GRU貝葉斯優(yōu)化卷積門控循環(huán)單元多輸入分類預(yù)測(cè)

    效果一覽 基本介紹 基于貝葉斯(bayes)優(yōu)化卷積神經(jīng)網(wǎng)絡(luò)-門控循環(huán)單元(CNN-GRU)分類預(yù)測(cè),BO-CNN-GRU/Bayes-CNN-GRU多輸入分類模型。 1.優(yōu)化參數(shù)為:學(xué)習(xí)率,隱含層節(jié)點(diǎn),正則化參數(shù)。 2.可視化展示分類準(zhǔn)確率,輸入多個(gè)特征,輸出四個(gè)類別。 3.運(yùn)行環(huán)境matlab2020b及以上。 模型描述

    2023年04月23日
    瀏覽(27)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包