系列文章鏈接
論文一:2020 Informer:長(zhǎng)時(shí)序數(shù)據(jù)預(yù)測(cè)
論文二:2021 Autoformer:長(zhǎng)序列數(shù)據(jù)預(yù)測(cè)
論文三:2022 FEDformer:長(zhǎng)序列數(shù)據(jù)預(yù)測(cè)
論文四:2022 Non-Stationary Transformers:非平穩(wěn)性時(shí)序預(yù)測(cè)
論文五:2022 Pyraformer:基于金字塔圖結(jié)構(gòu)的時(shí)序預(yù)測(cè)
論文六:2023 Crossformer:多變量時(shí)序預(yù)測(cè)
論文七:2023 LTSF-Linear:質(zhì)疑transformer能力的線性預(yù)測(cè)模型
論文鏈接:https://openreview.net/forum?id=vSVLM2j9eie
github鏈接:https://github.com/Thinklab-SJTU/Crossformer
參考解讀:https://blog.csdn.net/qq_33431368/article/details/129483613
上海交通大學(xué)發(fā)表的論文,主要是解決多個(gè)變量之間時(shí)序關(guān)系的建模,解決基于多變量指標(biāo)的時(shí)序數(shù)據(jù)處理,本文的創(chuàng)新點(diǎn)主要提現(xiàn)在以下幾點(diǎn):
-
Dimension-Segment-Wise Embedding:對(duì)于多維時(shí)間序列,應(yīng)該對(duì)每個(gè)維度的數(shù)據(jù)進(jìn)行單獨(dú)的數(shù)據(jù)表征,而不是在每個(gè)點(diǎn)位基于所有維度的數(shù)據(jù)進(jìn)行數(shù)據(jù)表征,因此本文針對(duì)每個(gè)維度的指標(biāo)進(jìn)行獨(dú)立向量化表征(線性轉(zhuǎn)換+位置編碼),更好地捕捉單變量的數(shù)據(jù)信息;
-
Two-Stage注意力模塊:第一步是時(shí)間維度的注意力機(jī)制,采用傳統(tǒng)的時(shí)序transformer思想進(jìn)行單維度內(nèi)的時(shí)序數(shù)據(jù)建模;然后第二步再進(jìn)行空間維度的建模,也就是提取多個(gè)變量之間的關(guān)聯(lián)信息,也就是在變量維度進(jìn)行attention計(jì)算,但是這樣計(jì)算復(fù)雜度會(huì)很高,本文設(shè)計(jì)了中間變量運(yùn)算簡(jiǎn)化了計(jì)算;
文章來(lái)源:http://www.zghlxwxcb.cn/news/detail-642545.html
-
多層級(jí)Encoder-Decoder:由于上一步會(huì)進(jìn)行two-stage的注意力運(yùn)算,因此在Decoder中會(huì)分別對(duì)不同階段的結(jié)果進(jìn)行解碼,模型的輸入最開(kāi)始是細(xì)粒度patch,隨著層數(shù)增加逐漸聚合成更粗粒度的patch。這種形式可以讓模型從不同的粒度提取信息,也有點(diǎn)像空洞卷積的架構(gòu)。Decoder會(huì)利用不同層次的編碼進(jìn)行預(yù)測(cè),各層的預(yù)測(cè)結(jié)果加和到一起,得到最終的預(yù)測(cè)結(jié)果(參考描述)。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-642545.html
到了這里,關(guān)于【論文閱讀】基于深度學(xué)習(xí)的時(shí)序預(yù)測(cè)——Crossformer的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!