国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【論文閱讀】RevIN - Reversible Instance Normalization for Accurate Time-Series Forecasting Against Distrib

這篇具有很好參考價值的文章主要介紹了【論文閱讀】RevIN - Reversible Instance Normalization for Accurate Time-Series Forecasting Against Distrib。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

【論文閱讀】RevIN - Reversible Instance Normalization for Accurate Time-Series Forecasting Against Distribution Shift

0. 論文基本信息

【論文閱讀】RevIN - Reversible Instance Normalization for Accurate Time-Series Forecasting Against Distrib,時序預(yù)測,機(jī)器學(xué)習(xí),人工智能,深度學(xué)習(xí)
發(fā)表信息:ICLR 2022
論文地址:https://openreview.net/forum?id=cGDAkQo1C0p

1. 簡介

時間序列預(yù)測中的主要挑戰(zhàn)之一是數(shù)據(jù)分布漂移問題(distribution shift problem),即數(shù)據(jù)分布,比如數(shù)據(jù)的均值方差等,會隨著時間而變化,這會給時序預(yù)測問題造成一定的難度(這類數(shù)據(jù)也成為非平穩(wěn)數(shù)據(jù)non-stationary)。而在時序預(yù)測任務(wù)中,訓(xùn)練集和測試集往往是時間來劃分的,這天然會引入訓(xùn)練集和測試集分布不一致的問題,此外,不同輸入序列也會有數(shù)據(jù)分布不一致的問題。這兩個不一致的問題都可能會導(dǎo)致模型效果的下降。

為了解決上述問題,可以想辦法去除數(shù)據(jù)中的非平穩(wěn)信息,但是如果只是簡單的消除非平穩(wěn)信息,會導(dǎo)致非平穩(wěn)信息丟失,這可能會影響到模型無法學(xué)習(xí)到這部分信息,進(jìn)而影響到模型效果。因此,論文提出了在模型輸出后顯式恢復(fù)非平穩(wěn)信息的思路,這樣既使模型在學(xué)習(xí)時忽略了數(shù)據(jù)漂移的問題,又避免了非平穩(wěn)信息的丟失。

本篇論文提出的是一種數(shù)據(jù)規(guī)范化的方法,命名為“可逆實例規(guī)范化” (reversible instance normalization,RevIN)。具體來說,RevIN包含兩部分,規(guī)范化和逆規(guī)范化,首先在數(shù)據(jù)輸入模型前,將數(shù)據(jù)進(jìn)行規(guī)范化,然后經(jīng)過模型學(xué)習(xí)后得到模型輸出,最后對模型輸出進(jìn)行反規(guī)范化。RevIN是一種靈活的,端到端的可訓(xùn)練層,能夠被應(yīng)用到任意模型層。

論文將RevIN運用到多種SOTA的時序預(yù)測模型上,均取得了較好的效果,下圖是一個效果的直觀對比。
【論文閱讀】RevIN - Reversible Instance Normalization for Accurate Time-Series Forecasting Against Distrib,時序預(yù)測,機(jī)器學(xué)習(xí),人工智能,深度學(xué)習(xí)

2. 論文方法介紹

定義
將時序預(yù)測任務(wù)的輸入表示為: X = { x ( i ) } i = 1 N X = \{x^{(i)}\}_{i=1}^N X={x(i)}i=1N?,對應(yīng)的輸出表示為: Y = { y ( i ) } i = 1 N Y = \{y^{(i)}\}_{i=1}^N Y={y(i)}i=1N?,其中N表示序列數(shù)量。
定義變量:
K K K: 變量數(shù)
T x T_x Tx?: 輸入序列長度
T y T_y Ty?: 輸出序列長度

給定輸入: x ( i ) ∈ R K × T x x^{(i)} \in R^{K \times T_x} x(i)RK×Tx?, 目標(biāo)是預(yù)測輸出: y ( i ) ∈ R K × T y y^{(i)} \in R^{K \times T_y} y(i)RK×Ty?。

RevIN包含對稱的兩部分,normalization和denormalization。首先對原始數(shù)據(jù)進(jìn)行規(guī)范化,對每個輸入 x ( i ) x^{(i)} x(i),進(jìn)行實例規(guī)范化,即使用自身的均值和方差進(jìn)行規(guī)范化。具體計算過程如下:
【論文閱讀】RevIN - Reversible Instance Normalization for Accurate Time-Series Forecasting Against Distrib,時序預(yù)測,機(jī)器學(xué)習(xí),人工智能,深度學(xué)習(xí)
【論文閱讀】RevIN - Reversible Instance Normalization for Accurate Time-Series Forecasting Against Distrib,時序預(yù)測,機(jī)器學(xué)習(xí),人工智能,深度學(xué)習(xí)
這里 γ , β ∈ R K \gamma, \beta \in R^K γ,βRK是可學(xué)習(xí)的仿射變換參數(shù)。
反規(guī)范化方法如下,和規(guī)范化階段使用相同的參數(shù)值。
【論文閱讀】RevIN - Reversible Instance Normalization for Accurate Time-Series Forecasting Against Distrib,時序預(yù)測,機(jī)器學(xué)習(xí),人工智能,深度學(xué)習(xí)

整個方法的整體架構(gòu)如下圖所示。
【論文閱讀】RevIN - Reversible Instance Normalization for Accurate Time-Series Forecasting Against Distrib,時序預(yù)測,機(jī)器學(xué)習(xí),人工智能,深度學(xué)習(xí)

圖3展示了整個workflow過程中數(shù)據(jù)分布的變化。相對于BN用于解決層間參數(shù)分布的偏移問題,論文更傾向于將提出的方法解讀為encoder-decoder,先清洗數(shù)據(jù),去除非平穩(wěn)信息,最后再恢復(fù)??梢钥闯鯮evIN是模型無關(guān)的一種方法。
【論文閱讀】RevIN - Reversible Instance Normalization for Accurate Time-Series Forecasting Against Distrib,時序預(yù)測,機(jī)器學(xué)習(xí),人工智能,深度學(xué)習(xí)

3. 實驗結(jié)果

【論文閱讀】RevIN - Reversible Instance Normalization for Accurate Time-Series Forecasting Against Distrib,時序預(yù)測,機(jī)器學(xué)習(xí),人工智能,深度學(xué)習(xí)
【論文閱讀】RevIN - Reversible Instance Normalization for Accurate Time-Series Forecasting Against Distrib,時序預(yù)測,機(jī)器學(xué)習(xí),人工智能,深度學(xué)習(xí)
【論文閱讀】RevIN - Reversible Instance Normalization for Accurate Time-Series Forecasting Against Distrib,時序預(yù)測,機(jī)器學(xué)習(xí),人工智能,深度學(xué)習(xí)

RevIN方法和其他經(jīng)典的規(guī)范化或歸一化方法對比,可以看到RevIN方法有明顯的優(yōu)勢。注意,這里的min-max和z-score都是實例維度的,不是整體數(shù)據(jù)集的。
【論文閱讀】RevIN - Reversible Instance Normalization for Accurate Time-Series Forecasting Against Distrib,時序預(yù)測,機(jī)器學(xué)習(xí),人工智能,深度學(xué)習(xí)
圖5展示了RevIN對中間層的分布偏移也能一定程度的緩解。
【論文閱讀】RevIN - Reversible Instance Normalization for Accurate Time-Series Forecasting Against Distrib,時序預(yù)測,機(jī)器學(xué)習(xí),人工智能,深度學(xué)習(xí)

4. 總結(jié)

這篇論文提出的方法相對比較簡單,運用起來成本也較低,有很好的啟發(fā)性。文章來源地址http://www.zghlxwxcb.cn/news/detail-620379.html

到了這里,關(guān)于【論文閱讀】RevIN - Reversible Instance Normalization for Accurate Time-Series Forecasting Against Distrib的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 【論文筆記】CRN: Camera Radar Net for Accurate, Robust, Efficient 3D Perception

    【論文筆記】CRN: Camera Radar Net for Accurate, Robust, Efficient 3D Perception

    原文鏈接:https://arxiv.org/abs/2304.00670 ??本文提出兩階段融合方法CRN,能使用相機(jī)和雷達(dá)生成語義豐富且位置精確的BEV特征。具體來說,首先將圖像透視特征轉(zhuǎn)換到BEV下,該步驟依賴?yán)走_(dá),稱為雷達(dá)輔助的視圖變換(RVT)。由于轉(zhuǎn)換得到的BEV特征并非完全精確,接下來的多模

    2024年02月03日
    瀏覽(46)
  • 論文筆記:Accurate Map Matching Method for Mobile Phone Signaling Data Under Spatio-Temporal Uncertainty

    論文筆記:Accurate Map Matching Method for Mobile Phone Signaling Data Under Spatio-Temporal Uncertainty

    IEEE TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS 2023 1.1.1 GPS、CDR與MSD數(shù)據(jù) 之前的地圖匹配主要是針對GPS數(shù)據(jù) GPS數(shù)據(jù)在全球范圍內(nèi)可用且在定位上相對精確 然而, GPS也存在一些局限性 作為主動生成的數(shù)據(jù),GPS耗能大 由于需要主動收集,GPS可能無法隨時隨地獲得 ——以上兩點都限

    2024年01月18日
    瀏覽(55)
  • 【論文閱讀】【yolo系列】YOLACT Real-time Instance Segmentation

    【論文閱讀】【yolo系列】YOLACT Real-time Instance Segmentation

    論文鏈接:https://arxiv.org/pdf/1904.02689.pdf 【 實例分割 】 鑒于其重要性,大量的研究投入到實例分割的準(zhǔn)確性。 兩階段 :Mask-RCNN [18]是一種具有代表性的兩階段實例分割方法,它首先生成候選感興趣區(qū)域(roi),然后在第二階段對這些roi進(jìn)行分類和分割。后續(xù)工作試圖通過提

    2024年02月16日
    瀏覽(21)
  • 【論文閱讀】Deep Instance Segmentation With Automotive Radar Detection Points

    【論文閱讀】Deep Instance Segmentation With Automotive Radar Detection Points

    基于汽車?yán)走_(dá)檢測點的深度 實例分割 一個區(qū)別: automotive radar? 汽車?yán)走_(dá) : 分辨率低,點云稀疏,語義上模糊,不適合直接使用用于密集LiDAR點開發(fā)的方法? ; 返回的物體圖像不如LIDAR精確,可以在雨,雪,雨夾雪,冰雹,霧,泥和塵土中返回; 在夜間和陰天條件下也比激

    2024年02月13日
    瀏覽(23)
  • 大一統(tǒng)模型 Universal Instance Perception as Object Discovery and Retrieval 論文閱讀筆記

    大一統(tǒng)模型 Universal Instance Perception as Object Discovery and Retrieval 論文閱讀筆記

    寫在前面 ??馬上又是一周周末了,開始寫論文博客啦。 ??這是一篇頂會文章,標(biāo)題很清楚,就是一個一統(tǒng)的框架用于解決各種任務(wù)。這類文章在 21 年的時候挺多的,現(xiàn)在倒是不常見了。因為需要的資源很多,外部數(shù)據(jù)集也很龐大,一般的小資源團(tuán)隊基本搞不定。但一旦

    2024年02月04日
    瀏覽(19)
  • 論文閱讀 (90):Proposal-based Multiple Instance Learning (P-MIL, 2023CVPR)

    論文閱讀 (90):Proposal-based Multiple Instance Learning (P-MIL, 2023CVPR)

    名稱 :提案多示例學(xué)習(xí) (proposal-based multiple instance learning, P-MIL) 背景 :弱監(jiān)督時間動作定位,即僅在視頻級標(biāo)簽下定位和識別未修剪視頻中的動作。不考慮實例級標(biāo)簽時,已有方法大多使用 基于片段的多示例 (S-MIL) 框架。 問題 : 如圖1(a)所示,測試階段的目的是將動作提案

    2024年02月08日
    瀏覽(26)
  • 2023 Mask R-CNN 改進(jìn):DynaMask: Dynamic Mask Selection for Instance Segmentation 論文筆記

    2023 Mask R-CNN 改進(jìn):DynaMask: Dynamic Mask Selection for Instance Segmentation 論文筆記

    寫在前面 ??本周更新的第二篇論文閱讀,2023年每周一篇博文,還剩5篇未補(bǔ),繼續(xù)加油~ 論文地址:DynaMask: Dynamic Mask Selection for Instance Segmentation 代碼地址:https://github.com/lslrh/DynaMask 收錄于:CVPR 2023 歡迎關(guān)注,主頁更多干貨,持續(xù)輸出中~ ??一般的實例分割通常采用固定

    2024年02月01日
    瀏覽(50)
  • [論文閱讀]A ConvNet for the 2020s

    [論文閱讀]A ConvNet for the 2020s

    視覺識別的咆哮的20年代開始于ViTs的引入,它很快取代了卷積神經(jīng)網(wǎng)絡(luò),成為最先進(jìn)的圖像分類模型。另一方面,一個原始的ViT在用于一般的比如目標(biāo)識別和語義分割的計算機(jī)視覺任務(wù)的時候面臨困難。層次Transformer(例如,Swin-Transformer),它重新引入了幾個卷積神經(jīng)網(wǎng)絡(luò)先驗

    2024年02月07日
    瀏覽(21)
  • Hopper: Interpretative Fuzzing for Libraries——論文閱讀

    Hopper: Interpretative Fuzzing for Libraries——論文閱讀

    problem 1 :雖然目前最先進(jìn)的fuzzers能夠有效地生成輸入,但是現(xiàn)有的模糊驅(qū)動程序仍然不能全面覆蓋庫的入口。(entries in libraries,庫中的不同條目或入口點。包括調(diào)用庫中的函數(shù)、使用庫中的類等) problem 2 :大多數(shù)模糊驅(qū)動程序都是開發(fā)人員手工制作的,它們的質(zhì)量取決于開

    2024年02月02日
    瀏覽(23)
  • 【論文閱讀——Profit Allocation for Federated Learning】

    【論文閱讀——Profit Allocation for Federated Learning】

    由于更為嚴(yán)格的數(shù)據(jù)管理法規(guī),如《通用數(shù)據(jù)保護(hù)條例》(GDPR),傳統(tǒng)的機(jī)器學(xué)習(xí)服務(wù)生產(chǎn)模式正在轉(zhuǎn)向聯(lián)邦學(xué)習(xí)這一范式。聯(lián)邦學(xué)習(xí)允許多個數(shù)據(jù)提供者在其本地保留數(shù)據(jù)的同時,協(xié)作訓(xùn)練一個共享模型。推動聯(lián)邦學(xué)習(xí)實際應(yīng)用的關(guān)鍵在于如何將聯(lián)合模型產(chǎn)生的利潤公平地

    2024年04月13日
    瀏覽(29)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包