?文章來源地址http://www.zghlxwxcb.cn/news/detail-488956.html
基于Transformer時間序列預(yù)測模型
?文章來源:http://www.zghlxwxcb.cn/news/detail-488956.html
?
特色:1、單變量,多變量輸入,自由切換?
???????????2、單步預(yù)測,多步預(yù)測,自動切換
???????????3、基于Pytorch架構(gòu)
???????????4、多個評估指標(biāo)(MAE,MSE,R2,MAPE等)
???????????5、數(shù)據(jù)從excel文件中讀取,更換簡單
???????????6、標(biāo)準(zhǔn)框架,數(shù)據(jù)分為訓(xùn)練集、驗證集,測試集
?
全部完整的代碼,保證可以運行的代碼看這里。
http://t.csdnimg.cn/El450
?
???。?!如果第一個鏈接打不開,請點擊個人首頁,查看我的個人介紹。
(搜索到的產(chǎn)品后,點頭像,就能看到全部代碼)
黑科技小土豆的博客_CSDN博客-深度學(xué)習(xí),32單片機領(lǐng)域博主
?
?
?
?
Transformer 模型是一種基于自注意力機制的神經(jīng)網(wǎng)絡(luò)模型,由 Google 在 2017 年提出,用于處理序列到序列(sequence-to-sequence)的自然語言處理任務(wù)。相較于傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,Transformer 模型不需處理輸入序列的時序關(guān)系,能夠更好地捕捉序列間的全局關(guān)系,提高模型的性能。
Transformer 模型源于 encoder-decoder 框架,其中 encoder 用于將輸入序列轉(zhuǎn)換成一組特征向量,decoder 用于將這些特征向量轉(zhuǎn)化到輸出序列。Transformer利用自注意力機制代替了傳統(tǒng) RNN 模型中的循環(huán)意見機制。
Transformer 模型的優(yōu)點包括:
- Transformer 模型通過自注意力機制處理序列數(shù)據(jù),可以直接對整個序列建模,捕捉序列之間的全局關(guān)系,極大提高了建模效率和精度。
- Transformer 模型中的多頭注意力機制使其具有更好的可解釋性,并且能夠較好地處理較長序列和大規(guī)模數(shù)據(jù)。
因此,Transformer 模型是一種適用于自然語言處理、語言翻譯、詞向量處理等領(lǐng)域的強有力的深度學(xué)習(xí)模型,在文本生成、情感分析、智能問答等任務(wù)中表現(xiàn)優(yōu)異。
?
train_ratio = 0.7 # 訓(xùn)練集比例
val_ratio = 0.15 # 驗證集比例
test_ratio = 0.15 # 測試集比例
input_length = 48 # 輸入數(shù)據(jù)長度,多步預(yù)測建議長,單步預(yù)測建議短
output_length = 1 # 輸出數(shù)據(jù)長度,1為單步預(yù)測,1以上為多步預(yù)測 請注意,隨著輸出長度的增長,模型訓(xùn)練時間呈指數(shù)級增長
learning_rate = 0.1 # 學(xué)習(xí)率
estimators = 100 # 迭代次數(shù)
max_depth = 5 # 樹模型的最大深度
interval_length = 2000 # 預(yù)測數(shù)據(jù)長度,最長不可以超過總數(shù)據(jù)條數(shù)
scalar = True # 是否使用歸一化
scalar_contain_labels = True # 歸一化過程是否包含目標(biāo)值的歷史數(shù)據(jù)
target_value = 'load' # 需要預(yù)測的列名,可以在excel中查看
?
?
到了這里,關(guān)于基于Transformer時間序列預(yù)測模型的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!