国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

論文筆記:Are Transformers Effective for Time Series Forecasting?

這篇具有很好參考價值的文章主要介紹了論文筆記:Are Transformers Effective for Time Series Forecasting?。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

AAAI 2023 oral

1 Intro

  • 自注意力計算是排列不變的(permutation-invariant)
    • 雖然使用各種類型的position embedding和temporal embedding后,會保留一些order信息,但仍然時間信息可能會不可避免地丟失
  • 本文質疑基于Transformer以進行時間序列預測的有效性
    • 現(xiàn)有的基于Transformer的方法,通常比較的baseline是利用自回歸、自我迭代來進行預測
      • 由于不可避免的誤差累積,故而這些baseline的長期預測能力會比較差
    • 論文嘗試使用一種非常簡單的線性模型,直接進行多部預測
      • 這個線性模型優(yōu)于所有Transformer的模型
      • 同時大多數(shù)Transformer無法從長序列中提取有效的時間關系(預測誤差不會隨著sliding window的增加而減少)
    • 由于并不是所有時間序列都是可以預測的,所以這里只研究趨勢和周期相對清晰的時間序列。

2? 現(xiàn)有模型

論文筆記:Are Transformers Effective for Time Series Forecasting?,論文筆記,論文閱讀,深度學習,人工智能

?論文筆記 Enhancing the Locality and Breaking the MemoryBottleneck of Transformer on Time Series Forecas_UQI-LIUWJ的博客-CSDN博客論文筆記:Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting_UQI-LIUWJ的博客-CSDN博客論文筆記:Autoformer: Decomposition Transformers with Auto-Correlation for Long-Term Series Forecasting_UQI-LIUWJ的博客-CSDN博客?論文筆記:PYRAFORMER: LOW-COMPLEXITY PYRAMIDAL ATTENTION FOR LONG-RANGE TIME SERIES MODELING AND FORECAST_UQI-LIUWJ的博客-CSDN博客論文筆記:FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting_UQI-LIUWJ的博客-CSDN博客

2.1 IMS(迭代多步)和DMS(直接多步)

  • 與DMS預測結果相比,由于采用了自回歸模式,IMS預測的方差較小,但不可避免地會受到誤差累積效應的影響。
  • 因此,當有一個高度準確的單步的predictor,且T相對較小時,IMS更可取。相比之下,當難以獲得無偏的單步預測模型或T較大時,DMS預測會生成更準確的預測

2.2 提出的模型

2.2.0 Linear

直接將N*T的輸入序列,通過一個線性層,輸出到N*T'的輸出序列

2.2.1 Dlinear

  • 論文筆記:Are Transformers Effective for Time Series Forecasting?,論文筆記,論文閱讀,深度學習,人工智能

  • 首先通過滑動平均將時間序列分成趨勢和周期
  • 然后使用一層線性層(右圖),分別映射趨勢和周期
  • 最后將 映射完成的趨勢和周期加和

舉例:

  • 比如現(xiàn)在有一個10個變量的時間序列,歷史長度為100,我們要預測未來50個時間步
  • 先將原來10*100維的時間序列矩陣分解成兩個10*100維的趨勢和周期時間序列
  • 然后使用100*50的線性映射層,將趨勢和周期時間序列轉變成10*50維的兩個矩陣
  • 將他們加和,得到10*50維的輸出,這個就是預測的結果

2.2.2 NLinear

  • 輸入序列首先全部減去 序列的最后一個值
  • 將減去后的序列送入一個線性層
  • 得到預測結果后,將減去的部分加回來
  • (可以將加法和減法看作輸入序列的規(guī)范化)

3 實驗部分

3.1 數(shù)據

論文筆記:Are Transformers Effective for Time Series Forecasting?,論文筆記,論文閱讀,深度學習,人工智能

3,2 實驗結果

論文筆記:Are Transformers Effective for Time Series Forecasting?,論文筆記,論文閱讀,深度學習,人工智能

?可以看到Linear/DLinear/NLinear效果比Transformer的好

3.3 預測結果可視化

論文筆記:Are Transformers Effective for Time Series Forecasting?,論文筆記,論文閱讀,深度學習,人工智能

可以看到Linear的效果依舊最好

3.4 輸入窗口大小和預測結果的關系

  • 為了研究輸入回望窗口大小的影響,論文用L進行了實驗∈ {24、48、72、96、120、144、168、192、336、504、672、720}用于長期預測(T=720)。
  • 下圖展示了兩個數(shù)據集的MSE結果。

論文筆記:Are Transformers Effective for Time Series Forecasting?,論文筆記,論文閱讀,深度學習,人工智能

可以看到有些基于Transformer的模型在回望窗口增大時性能會惡化或保持不變。

相比之下,所有LTSF Linear的性能都隨著輸入窗口大小的增加而顯著提高。

3.5? 自注意力對時間序列預測的影響

逐漸將Informer中的組成部分替換成Linear,發(fā)現(xiàn)性能隨著逐步簡化,而不斷提高

論文筆記:Are Transformers Effective for Time Series Forecasting?,論文筆記,論文閱讀,深度學習,人工智能

3.6 Transformer可以維持時間順序嘛?

在進行embedding 之前,對原始時間序列輸入進行shuffle:

  • Shuf:隨機shuffle整個序列
  • Half-Ex:shuffle一半的序列,然后將序列的前半部分和后半部分對調

論文筆記:Are Transformers Effective for Time Series Forecasting?,論文筆記,論文閱讀,深度學習,人工智能?

  • 與最初的設置相比,所有基于Transformer的方法的性能都沒有波動,即使輸入序列是隨機shuffle的。
  • 相反,LTSF Linear的性能受到了嚴重損害。
  • 這表明,具有不同位置和時間嵌入的transformer保留了非常有限的時間關系,并且容易在嘈雜的數(shù)據上過擬合,而LTSF線性可以自然建模順序,并且較少的參數(shù)也可以避免過擬合。

3.7 position embedding的有效性

論文筆記:Are Transformers Effective for Time Series Forecasting?,論文筆記,論文閱讀,深度學習,人工智能

  • ?如果沒有position和temporal embedding,Informer的性能會大大下降(因為INformer是稀疏的逐點乘積attention)
  • 而AutoFormer和FedFormer會對temporal embedding和position embedding的敏感度小一些
    • AutoFormer是使用Auto-correlation代替逐點乘積attention
    • FEDFormer是在譜域上的attention
    • 他們都不是單個時間片的attention

3.8 是不是數(shù)據集的大小制約了Transformer的學習能力

Ori是一個完整的數(shù)據,Short是截斷了的數(shù)據

論文筆記:Are Transformers Effective for Time Series Forecasting?,論文筆記,論文閱讀,深度學習,人工智能

在這里,增加了數(shù)據,反而模型效果降低了。

?文章來源地址http://www.zghlxwxcb.cn/news/detail-577559.html

到了這里,關于論文筆記:Are Transformers Effective for Time Series Forecasting?的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!

本文來自互聯(lián)網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 論文筆記 | PromptCast: A New Prompt-based Learning Paradigm for Time Series Forecasting

    論文筆記 | PromptCast: A New Prompt-based Learning Paradigm for Time Series Forecasting

    這篇論文的核心思想就是把原始的時序數(shù)據轉換成文本提示,對大模型進行微調,通過對話的方式進行預測。 筆者是根據原文逐一翻譯并閱讀,文章可能有點長,有需要的可以直接看對應部分。這也是筆者第一次分享論文筆記,有不好的地方還請讀者多見諒。 Paper:https://

    2024年04月25日
    瀏覽(26)
  • 論文筆記 Spatial-Temporal Identity: A Simple yet Effective Baseline for Multivariate Time Series Forecas

    論文筆記 Spatial-Temporal Identity: A Simple yet Effective Baseline for Multivariate Time Series Forecas

    CIKM 2022 多維時間序列(Multivariate Time Series, MTS)?最關鍵的、區(qū)別于其他數(shù)據的特點是,這些 時間序列之間存在著明顯的依賴關系 MTS 預測的關鍵是:對 MTS 的第?i?條時間序列進行預測的時候,不僅要考慮這第?i?條時間序列的歷史信息,也要考慮其他時間序列的歷史信息】

    2024年02月02日
    瀏覽(19)
  • 【論文閱讀】Informer Beyond Efficient Transformer for Long Sequence Time-Series Forecasting

    【論文閱讀】Informer Beyond Efficient Transformer for Long Sequence Time-Series Forecasting

    原始題目:Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting 中文翻譯:Informer:超越有效變換器進行長序列時間序列預測 發(fā)表時間:2021-05-18 平臺:Proceedings of the AAAI Conference on Artificial Intelligence 文章鏈接:https://ojs.aaai.org/index.php/AAAI/article/view/17325 開源代碼:htt

    2024年03月12日
    瀏覽(21)
  • 【論文閱讀】N-BEATS Neural basis expansion analysis for interpretable time series forecasting

    【論文閱讀】N-BEATS Neural basis expansion analysis for interpretable time series forecasting

    原始題目:N-BEATS: Neural basis expansion analysis for interpretable time series forecasting 中文翻譯:N-BEATS:可解釋時間序列預測的神經基展開分析 發(fā)表時間:2020-02-20 平臺:arXiv 文章鏈接:http://arxiv.org/abs/1905.10437 開源代碼:https://github.com/servicenow/n-beats 我們專注于使用深度學習解決單變量

    2024年03月11日
    瀏覽(20)
  • 【論文閱讀】RevIN - Reversible Instance Normalization for Accurate Time-Series Forecasting Against Distrib

    【論文閱讀】RevIN - Reversible Instance Normalization for Accurate Time-Series Forecasting Against Distrib

    發(fā)表信息:ICLR 2022 論文地址:https://openreview.net/forum?id=cGDAkQo1C0p 時間序列預測中的主要挑戰(zhàn)之一是數(shù)據分布漂移問題(distribution shift problem),即數(shù)據分布,比如數(shù)據的均值方差等,會隨著時間而變化,這會給時序預測問題造成一定的難度(這類數(shù)據也成為非平穩(wěn)數(shù)據non-sta

    2024年02月14日
    瀏覽(93)
  • 論文筆記:Time-LLM: Time Series Forecasting by Reprogramming Large Language Models

    論文筆記:Time-LLM: Time Series Forecasting by Reprogramming Large Language Models

    iclr 2024 reviewer 評分 3888 提出了 Time-LLM, 是一個通用的大模型重編程(LLM Reprogramming)框架 將 LLM 輕松用于一般時間序列預測,而無需對大語言模型本身做任何訓練 為什么需要時序數(shù)據和文本數(shù)據對齊:時序數(shù)據和文本數(shù)據在表達方式上存在顯著差異,兩者屬于不同的模態(tài)。

    2024年04月28日
    瀏覽(26)
  • 論文筆記:FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting

    論文筆記:FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting

    2022 ICML 長時間序列問題是一個研究很廣泛的問題 RNN以及變體會遇到梯度消失/梯度爆炸,這會在很大程度上限制他們的表現(xiàn) Transformer的方法會導致很高的計算復雜度,以及很大的內存消耗,這也會使得在長時間序列上使用Transformer很吃力 近來有方法優(yōu)化Transformer,使其計算復

    2024年02月11日
    瀏覽(30)
  • 論文筆記:Adjusting for Autocorrelated Errors in Neural Networks for Time Series

    論文筆記:Adjusting for Autocorrelated Errors in Neural Networks for Time Series

    2021 NIPS 原來的時間序列預測任務是根據 預測 論文提出用一階自回歸誤差 預測 一階差分,類似于ResNet的殘差思路? 記 為pred,最終的預測結果 ?

    2024年02月14日
    瀏覽(17)
  • 【論文閱讀筆記】UNSUPERVISED REPRESENTATION LEARNING FOR TIME SERIES WITH TEMPORAL NEIGHBORHOOD CODING

    ?本文提出了一種自監(jiān)督框架,名為“時間鄰域編碼”(Temporal Neighborhood Coding,TNC),用于學習非平穩(wěn)時間序列的可泛化表示。該方法利用信號生成過程的局部平滑性來定義具有平穩(wěn)性質的時間鄰域。通過使用去偏差對比目標,該框架通過確保在編碼空間中,來自鄰域內的信

    2024年02月21日
    瀏覽(21)
  • 【論文筆記】SimMTM: A Simple Pre-Training Framework for Masked Time-Series Modeling

    【論文筆記】SimMTM: A Simple Pre-Training Framework for Masked Time-Series Modeling

    論文地址:https://arxiv.org/abs/2302.00861 時間序列分析被廣泛應用于各個領域。近年來,為了降低標簽費用,使各種任務受益, 自我監(jiān)督式預訓練 引起了人們的極大興趣。一種主流范式是 masked 建模,它通過學習基于未 masked 部分 重構 masked 內容來成功地預訓練深度模型。然而,

    2024年01月21日
    瀏覽(32)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包