国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

基于Transformer時間序列預(yù)測模型

這篇具有很好參考價值的文章主要介紹了基于Transformer時間序列預(yù)測模型。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

?文章來源地址http://www.zghlxwxcb.cn/news/detail-488956.html

基于Transformer時間序列預(yù)測模型

?

?

特色:1、單變量,多變量輸入,自由切換?

???????????2、單步預(yù)測,多步預(yù)測,自動切換

???????????3、基于Pytorch架構(gòu)

???????????4、多個評估指標(biāo)(MAE,MSE,R2,MAPE等)

???????????5、數(shù)據(jù)從excel文件中讀取,更換簡單

???????????6、標(biāo)準(zhǔn)框架,數(shù)據(jù)分為訓(xùn)練集、驗證集,測試集

?

全部完整的代碼,保證可以運行的代碼看這里。

http://t.csdnimg.cn/El450

?

???。?!如果第一個鏈接打不開,請點擊個人首頁,查看我的個人介紹。

(搜索到的產(chǎn)品后,點頭像,就能看到全部代碼)

黑科技小土豆的博客_CSDN博客-深度學(xué)習(xí),32單片機領(lǐng)域博主

?

?

基于Transformer時間序列預(yù)測模型

?

基于Transformer時間序列預(yù)測模型

?

Transformer 模型是一種基于自注意力機制的神經(jīng)網(wǎng)絡(luò)模型,由 Google 在 2017 年提出,用于處理序列到序列(sequence-to-sequence)的自然語言處理任務(wù)。相較于傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,Transformer 模型不需處理輸入序列的時序關(guān)系,能夠更好地捕捉序列間的全局關(guān)系,提高模型的性能。

Transformer 模型源于 encoder-decoder 框架,其中 encoder 用于將輸入序列轉(zhuǎn)換成一組特征向量,decoder 用于將這些特征向量轉(zhuǎn)化到輸出序列。Transformer利用自注意力機制代替了傳統(tǒng) RNN 模型中的循環(huán)意見機制。

Transformer 模型的優(yōu)點包括:

  1. Transformer 模型通過自注意力機制處理序列數(shù)據(jù),可以直接對整個序列建模,捕捉序列之間的全局關(guān)系,極大提高了建模效率和精度。
  2. Transformer 模型中的多頭注意力機制使其具有更好的可解釋性,并且能夠較好地處理較長序列和大規(guī)模數(shù)據(jù)。

因此,Transformer 模型是一種適用于自然語言處理、語言翻譯、詞向量處理等領(lǐng)域的強有力的深度學(xué)習(xí)模型,在文本生成、情感分析、智能問答等任務(wù)中表現(xiàn)優(yōu)異。

?

train_ratio = 0.7  # 訓(xùn)練集比例
val_ratio = 0.15  # 驗證集比例
test_ratio = 0.15  # 測試集比例
input_length = 48  # 輸入數(shù)據(jù)長度,多步預(yù)測建議長,單步預(yù)測建議短
output_length = 1  # 輸出數(shù)據(jù)長度,1為單步預(yù)測,1以上為多步預(yù)測 請注意,隨著輸出長度的增長,模型訓(xùn)練時間呈指數(shù)級增長
learning_rate = 0.1  # 學(xué)習(xí)率
estimators = 100  # 迭代次數(shù)
max_depth = 5  # 樹模型的最大深度
interval_length = 2000  # 預(yù)測數(shù)據(jù)長度,最長不可以超過總數(shù)據(jù)條數(shù)
scalar = True  # 是否使用歸一化
scalar_contain_labels = True  # 歸一化過程是否包含目標(biāo)值的歷史數(shù)據(jù)
target_value = 'load'  # 需要預(yù)測的列名,可以在excel中查看

基于Transformer時間序列預(yù)測模型

?

?

到了這里,關(guān)于基于Transformer時間序列預(yù)測模型的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包