国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

ICLR2023《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series》

這篇具有很好參考價值的文章主要介紹了ICLR2023《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series》。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

這是一篇ICLR2023 top 5%論文
ICLR2023《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series》
論文鏈接:https://openreview.net/pdf?id=vSVLM2j9eie
代碼:https://github.com/Thinklab-SJTU/Crossformer

1. Multivariate Time Series Forecasting

MTS,多變量時序數(shù)據(jù)預(yù)測。利用MTS的歷史值可以預(yù)測其未來的趨勢,例如心電圖(ECG),腦電圖(EEG)腦磁圖(MEG)的診斷以及系統(tǒng)監(jiān)測等等都是固有的多變量問題。該任務(wù)數(shù)據(jù)每個實例序列擁有多個維度,是一個d維向量和m個觀測值(時間序列)的列表,如下所示數(shù)據(jù)(借鑒自綜述論文:《The great multivariate time series classification bake off: a review and experimental evaluation of recent algorithmic advances》)
ICLR2023《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series》

2. 動機

MTS的核心額外復(fù)雜性在于,區(qū)別性特征可能存在于維度之間的相互作用中,而不僅僅存在于單個序列中的自相關(guān)性中。標(biāo)準(zhǔn)的Transformer中核心self-attention可能僅僅建模了單個序列的自相關(guān)性,忽略了跨維度的依賴關(guān)系。

此外,如下圖所示,當(dāng)數(shù)據(jù)序列很長時,計算復(fù)雜性高,但是可以觀察到,接近的數(shù)據(jù)點具有相似的注意權(quán)重!

基于此,作者提出一個分層encoder-decoder框架Crossformer.
ICLR2023《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series》

3. Crossformer

目標(biāo):輸入一段歷史序列 x 1 : T ∈ R T × D x_{1:T} \in \mathbb{R}^{T\times D} x1:T?RT×D,預(yù)測未來的一段序列 x T + 1 : T + τ ∈ R τ × D x_{T+1:T+\tau} \in \mathbb{R}^{\tau \times D} xT+1:T+τ?Rτ×D.

3.1 Hierarchical Encoder-Decoder

作者提出一個新的層次Encoder-Decoder的架構(gòu),如下所示,由左邊encoder(灰色)和右邊decoder(淺橘色)組成。其主要包含Dimension-Segment-Wise (DSW) embedding,Two-Stage Attention (TSA)層和Linear Projection。

  • Dimension-Segment-Wise (DSW) embedding:為了將輸入 x 1 : T ∈ R T × D x_{1:T} \in \mathbb{R}^{T\times D} x1:T?RT×D進(jìn)行分segment,從而減少計算復(fù)雜性。如果最后每個序列要分成 L L L個segment,每個序列 d m o d e l d_{model} dmodel?的通道數(shù),則最后的輸入記為: Z ∈ R L × D × d m o d e l Z \in \mathbb{R}^{L \times D \times d_{model}} ZRL×D×dmodel?.
  • Two-Stage Attention (TSA)層:捕獲cross-time和cross-dimension依賴關(guān)系。替待原來的self-attention在encoder和decoder中的位置。
  • Linear Projection:應(yīng)用于每一個decoder層的輸出,以產(chǎn)生該層的預(yù)測。對各層預(yù)測結(jié)果進(jìn)行求和,得到最終預(yù)測結(jié)果 x T + 1 : T + τ p r e d x^{pred}_{T+1:T+\tau} xT+1T+τpred?.
    ICLR2023《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series》
    下面主要講解DSW和TSA如何實現(xiàn)的!

3.2 Dimension-Segment-Wise embedding (DSW)

輸入 x 1 : T ∈ R T × D x_{1:T} \in \mathbb{R}^{T\times D} x1:T?RT×D,表明輸入包含 T T T個序列,每個序列有 D D D個維度。如下所示,如果我們分的每個segment的長度為 L s e g L_{seg} Lseg?,則每個序列中可以劃分出 T L s e g \frac{T}{L_{seg}} Lseg?T?個segment,每個序列有 D D D個維度,則整個輸入共包含 T L s e g × D \frac{T}{L_{seg}} \times D Lseg?T?×D個segment,故 x 1 : T x_{1:T} x1:T?可以記為: x 1 : T = { x i , d ( s ) ∣ 1 ≤ i ≤ T L s e g , 1 ≤ d ≤ D } x_{1:T}=\{x^{(s)}_{i,d}|1\le i \le \frac{T}{L_{seg}}, 1 \le d \le D \} x1:T?={xi,d(s)?∣1iLseg?T?,1dD}。在 d d d維度中的第 i i i個segment的size記為 x i , d ( s ) ∈ R 1 × L s e g x^{(s)}_{i,d} \in \mathbb{R}^{1 \times L_{seg}} xi,d(s)?R1×Lseg?,然后使用線性投影和位置嵌入將每個段嵌入到一個向量中:
ICLR2023《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series》
其中 h i , d ∈ R d m o d e l h_{i,d} \in \mathbb{R}^{d_{model}} hi,d?Rdmodel?, E ∈ R d m o d e l × L s e g E \in \mathbb{R}^{d_{model} \times L_{seg}} ERdmodel?×Lseg?表示可學(xué)習(xí)的映射矩陣。 E i , d ( p o s ) ∈ R d m o d e l E^{(pos)}_{i,d} \in \mathbb{R}^{d_{model}} Ei,d(pos)?Rdmodel?表示在 ( i , d ) (i,d) (i,d)位置的可學(xué)習(xí)位置嵌入。

最后,可以獲得一個2D的向量數(shù)組 H = { h i , d ∣ 1 ≤ i ≤ T L s e g , 1 ≤ d ≤ D } ∈ R T L s e g × D × d m o d e l H=\{ h_{i,d}|1 \le i \le \frac{T}{L_{seg}},1 \le d \le D \} \in \mathbb{R}^{\frac{T}{L_{seg}} \times D \times d_{model}} H={hi,d?∣1iLseg?T?,1dD}RLseg?T?×D×dmodel?.
ICLR2023《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series》

3.3 Two-Stage Attention (TSA)

由上可得輸入現(xiàn)在為: H ∈ R T L s e g × D × d m o d e l H \in \mathbb{R}^{\frac{T}{L_{seg}} \times D \times d_{model}} HRLseg?T?×D×dmodel?,為了方便,記 L = T L s e g L=\frac{T}{L_{seg}} L=Lseg?T?,則輸入為 H ∈ R L × D × d m o d e l H \in \mathbb{R}^{L \times D \times d_{model}} HRL×D×dmodel?。TSA主要由cross-time stage和
cross-dimension stage組成,如下圖所示。

ICLR2023《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series》

  • Cross-Time Stage
    對于每個維度,包含所有時間序列。因此,對于 d d d維度 Z : , d ∈ R L × d m o d e l Z_{:,d} \in \mathbb{R}^{L \times d_{model}} Z:,d?RL×dmodel?上,cross-time依賴關(guān)系可記為:
    ICLR2023《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series》
    其中 1 ≤ d ≤ D 1 \le d \le D 1dD,所有維度共享MSA(multi-head self-attention).
  • Cross-Dimension Stage
    對于每個時間點,包含所有維度。因此,對于第 i i i時間點 Z i , : t i m e ∈ R D × d m o d e l Z^{time}_{i,:} \in \mathbb{R}^{D \times d_{model}} Zi,:time?RD×dmodel?
    1)如果使用標(biāo)準(zhǔn)Transformer進(jìn)行,如下圖所示,可以很容易得到復(fù)雜性為 O ( D 2 ) \mathcal{O}(D^2) O(D2)!總共有 L L L個時間segment,因此總復(fù)雜性為 O ( D 2 L ) \mathcal{O}(D^2L) O(D2L).
    ICLR2023《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series》
    2)作者引入router機制,每個時間點共享。如下圖所示, R i , : ∈ R c × d m o d e l R_{i,:} \in \mathbb{R}^{c×d_{model}} Ri,:?Rc×dmodel? ( c c c是常數(shù))是作為路由器的可學(xué)習(xí)向量,作為第一個MSA的query.
    ICLR2023《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series》
    B i , : ∈ R c × d m o d e l B_{i,:} \in \mathbb{R}^{c×d_{model}} Bi,:?Rc×dmodel?,作為第二個MSA的key和value.
    ICLR2023《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series》
    由上可知,第一個MSA復(fù)雜性為 O ( c D L ) \mathcal{O}(cDL) O(cDL),第二個MSA也是如此,因此,最終復(fù)雜性為 O ( 2 c D L ) \mathcal{O}(2cDL) O(2cDL),其中 2 c 2c 2c為常量,記復(fù)雜性變?yōu)?span id="n5n3t3z" class="katex--inline"> O ( D L ) \mathcal{O}(DL) O(DL)!!

4 實驗

  • SOTA方法對比
    ICLR2023《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series》
    更多對比方法:
    ICLR2023《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series》

  • 消融實驗
    ICLR2023《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series》
    ICLR2023《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series》

  • 參數(shù)分析
    ICLR2023《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series》

  • 復(fù)雜性分析
    ICLR2023《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series》

  • 可視化ICLR2023《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series》
    ICLR2023《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series》

  • 運行速度對比
    ICLR2023《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series》

5. 結(jié)論

  • 提出了Crossformer,一種基于transformer的模型,利用跨維度依賴進(jìn)行多元時間序列(MTS)預(yù)測。
  • DSW (dimension - segment - wise)嵌入:將輸入數(shù)據(jù)嵌入到二維矢量數(shù)組中,以保留時間和維度信息。
  • 為了捕獲嵌入式陣列的跨時間和跨維度依賴關(guān)系,設(shè)計兩階段注意(TSA)層。
  • 利用DSW嵌入和TSA層,設(shè)計了一種分層編碼器(HED)來利用不同尺度的信息。

在6個數(shù)據(jù)集上的實驗結(jié)果展示了該方法優(yōu)于之前的先進(jìn)技術(shù)。

以上僅為本人小記,有問題歡迎指出(●ˇ?ˇ●)文章來源地址http://www.zghlxwxcb.cn/news/detail-435637.html

到了這里,關(guān)于ICLR2023《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series》的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • Cross-Drone Transformer Network for Robust Single Object Tracking論文閱讀筆記

    Cross-Drone Transformer Network for Robust Single Object Tracking論文閱讀筆記

    無人機在各種應(yīng)用中得到了廣泛使用,例如航拍和軍事安全,這得益于它們與固定攝像機相比的高機動性和廣闊視野。多 無人機追蹤系統(tǒng)可以通過從不同視角收集互補的視頻片段 ,為目標(biāo)提供豐富的信息,特別是當(dāng)目標(biāo)在某些視角中被遮擋或消失時。然而,在多無人機視覺

    2024年01月25日
    瀏覽(23)
  • 【論文簡述】Cross-Attentional Flow Transformer for Robust Optical Flow(CVPR 2022)

    【論文簡述】Cross-Attentional Flow Transformer for Robust Optical Flow(CVPR 2022)

    1. 第一作者: Xiuchao Sui、Shaohua Li 2. 發(fā)表年份: 2021 3. 發(fā)表期刊: arxiv 4. : 光流、Transformer、自注意力、交叉注意力、相關(guān)體 5. 探索動機: 由于卷積的局部性和剛性權(quán)重,有限的上下文信息被納入到像素特征中,并且計算出的相關(guān)性具有很高的隨機性,以至于大多數(shù)

    2024年02月03日
    瀏覽(95)
  • 《論文閱讀》具有特殊Token和輪級注意力的層級對話理解 ICLR 2023

    《論文閱讀》具有特殊Token和輪級注意力的層級對話理解 ICLR 2023

    前言 你是否也對于理解論文存在困惑? 你是否也像我之前搜索論文解讀,得到只是中文翻譯的解讀后感到失望? 小白如何從零讀懂論文?和我一起來探索吧! 今天為大家?guī)淼氖恰禜IERARCHICAL DIALOGUE UNDERSTANDING WITH SPECIAL TOKENS AND TURN-LEVEL ATTENTION》 出版:ICLR 時間?

    2024年02月15日
    瀏覽(22)
  • [ICLR 2023] LPT: Long-tailed Prompt Tuning for Image Classification

    [ICLR 2023] LPT: Long-tailed Prompt Tuning for Image Classification

    作者提出 Long-tailed Prompt Tuning (LPT) ,通過 prompt learning 來解決長尾問題,包括 (1) 使用 shared prompt 學(xué)習(xí) general features 并將預(yù)訓(xùn)練模型 adapt 到 target domain;(2) 使用 group-specific prompts 學(xué)習(xí) group-specific features 來提高模型的 fine-grained discriminative ability 作者首先通過對比 VPT (Visual Prom

    2024年02月11日
    瀏覽(63)
  • PV3D: A 3D GENERATIVE MODEL FOR PORTRAITVIDEO GENERATION 【2023 ICLR】

    PV3D: A 3D GENERATIVE MODEL FOR PORTRAITVIDEO GENERATION 【2023 ICLR】

    ICLR:International Conference on Learning Representations CCF-A 國際表征學(xué)習(xí)大會:深度學(xué)習(xí)的頂級會議 生成對抗網(wǎng)絡(luò)(GANs)的最新進(jìn)展已經(jīng)證明了生成令人驚嘆的逼真肖像圖像的能力。雖然之前的一些工作已經(jīng)將這種圖像gan應(yīng)用于 無條件的2D人像視頻生成 和 靜態(tài)的3D人像合成 ,但很少有

    2024年02月09日
    瀏覽(14)
  • 深入理解Transformer,兼談MHSA(多頭自注意力)、Cross-Attention(交叉注意力)、LayerNorm、FFN、位置編碼

    深入理解Transformer,兼談MHSA(多頭自注意力)、Cross-Attention(交叉注意力)、LayerNorm、FFN、位置編碼

    Transformer其實不是完全的Self-Attention(SA,自注意力)結(jié)構(gòu),還帶有Cross-Attention(CA,交叉注意力)、殘差連接、LayerNorm、類似1維卷積的Position-wise Feed-Forward Networks(FFN)、MLP和Positional Encoding(位置編碼)等 本文涵蓋Transformer所采用的MHSA(多頭自注意力)、LayerNorm、FFN、位置編

    2024年04月12日
    瀏覽(51)
  • 【讀論文】SwinFusion: Cross-domain Long-range Learning for General Image Fusion via Swin Transformer

    【讀論文】SwinFusion: Cross-domain Long-range Learning for General Image Fusion via Swin Transformer

    論文:https://ieeexplore.ieee.org/document/9812535 如有侵權(quán)請聯(lián)系博主 Swin Transformer 長期依賴性、全局信息 跨域融合 2022年發(fā)表在 IEEE/CAA JOURNAL OF AUTOMA TICA SINICA的一篇文章,該篇論文的作者仍然是我們熟悉的FusionGAN的作者。 簡單來說,該篇論文提出了一個基于CNN和Swin Transformer來提取

    2024年02月16日
    瀏覽(30)
  • 兩篇2023 ICLR多模態(tài)論文分享(模態(tài)互補性對多模態(tài)魯棒性影響 與 對多模表示學(xué)習(xí)有效的單模學(xué)習(xí))

    兩篇2023 ICLR多模態(tài)論文分享(模態(tài)互補性對多模態(tài)魯棒性影響 與 對多模表示學(xué)習(xí)有效的單模學(xué)習(xí))

    本文討論了模態(tài)互補性在多模態(tài)魯棒性中的重要性,并基于信息論提出了一種數(shù)據(jù)集層面量化度量,用于量化不同模態(tài)之間有多少互補信息,以及這些信息對預(yù)測標(biāo)簽有多大貢獻(xiàn)。該指標(biāo)基于互信息神經(jīng)估計器(MINE)來計算。提出了一個兩階段pipeline,分成數(shù)據(jù)生成階段和度

    2024年02月08日
    瀏覽(75)
  • 【論文閱讀】基于深度學(xué)習(xí)的時序預(yù)測——Crossformer

    【論文閱讀】基于深度學(xué)習(xí)的時序預(yù)測——Crossformer

    系列文章鏈接 論文一:2020 Informer:長時序數(shù)據(jù)預(yù)測 論文二:2021 Autoformer:長序列數(shù)據(jù)預(yù)測 論文三:2022 FEDformer:長序列數(shù)據(jù)預(yù)測 論文四:2022 Non-Stationary Transformers:非平穩(wěn)性時序預(yù)測 論文五:2022 Pyraformer:基于金字塔圖結(jié)構(gòu)的時序預(yù)測 論文六:2023 Crossformer:多變量時序預(yù)

    2024年02月13日
    瀏覽(27)
  • Transformer+醫(yī)學(xué)圖像最新進(jìn)展【2023】

    Transformer+醫(yī)學(xué)圖像最新進(jìn)展【2023】

    Transformer主要用于自然語言處理領(lǐng)域。近年來,它在計算機視覺(CV)領(lǐng)域得到了廣泛的應(yīng)用。醫(yī)學(xué)圖像分析(MIA,Medical image analysis)作為機器視覺(CV,Computer Vision)的一個重要分支,也極大地受益于這一最先進(jìn)的技術(shù)。 ?機構(gòu):新加坡國立大學(xué)機械工程系、中山大學(xué)智能系統(tǒng)工

    2024年02月15日
    瀏覽(23)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包