国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【論文閱讀】基于深度學(xué)習(xí)的時(shí)序異常檢測——Anomaly Transformer

這篇具有很好參考價(jià)值的文章主要介紹了【論文閱讀】基于深度學(xué)習(xí)的時(shí)序異常檢測——Anomaly Transformer。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

系列文章鏈接
數(shù)據(jù)解讀參考:數(shù)據(jù)基礎(chǔ):多維時(shí)序數(shù)據(jù)集簡介
論文一:2022 Anomaly Transformer:異常分?jǐn)?shù)預(yù)測
論文二:2022 TransAD:異常分?jǐn)?shù)預(yù)測
論文三:2023 TimesNet:基于卷積的多任務(wù)模型

論文鏈接:Anomaly Transformer.pdf
代碼鏈接:https://github.com/thuml/Anomaly-Transformer
視頻講解(原作者禁止轉(zhuǎn)載,聯(lián)系的話侵刪):https://www.bilibili.com/video/BV1CN4y1A7x6/?spm_id_from=333.337.search-card.all.click&vd_source=c912801c215d811162cae4db751b0768

本文是清華大學(xué)研究生提出的一種異常檢測模型,是基于transformer針對(duì)時(shí)序數(shù)據(jù)進(jìn)行編碼的方案,整體方案讓人耳目一新。

本文的創(chuàng)新點(diǎn)總結(jié)文章來源地址http://www.zghlxwxcb.cn/news/detail-633004.html

  1. 提出了Anomaly-Attention模塊,該模塊有兩大亮點(diǎn):
    2.1 prior-association:如下圖上半部分所示,采用高斯分布去擬合樣本時(shí)間點(diǎn)位和鄰近點(diǎn)位的數(shù)據(jù)分布,通過調(diào)整參數(shù) σ \sigma σ得到高斯先驗(yàn)分布,更注重局部數(shù)據(jù)分布, l l l層的高斯分布計(jì)算表示為: P l = R e s c a l e ( [ 1 2 π σ i e x p ( ? ∣ j ? i ∣ 2 2 σ i 2 ) ] i , j ∈ 1 , 2 , . . . , N ) P^l=Rescale([\frac{1}{\sqrt {2\pi\sigma_i}}exp(-\frac{|j-i|^2}{2\sigma_i^2})]_{i,j\in{1,2,...,N}}) Pl=Rescale([2πσi? ?1?exp(?2σi2?j?i2?)]i,j1,2,...,N?)
    【論文閱讀】基于深度學(xué)習(xí)的時(shí)序異常檢測——Anomaly Transformer,時(shí)間序列分析與處理,深度學(xué)習(xí),論文閱讀,transformer
    2.2 series-association:采用transformer中的注意力機(jī)制進(jìn)行時(shí)序數(shù)據(jù)建模,擬合上下文點(diǎn)位和目標(biāo)樣本點(diǎn)位間的權(quán)重關(guān)系,用于表示點(diǎn)位和更大范圍內(nèi)的上下文數(shù)據(jù)間的關(guān)聯(lián)性,更注重較大范圍內(nèi)的信息,如上圖下半部分所示, l l l層的注意力關(guān)聯(lián)計(jì)算為: S l = s o f t m a x ( Q K T d m o d e l ) S^l=softmax(\frac{QK^T}{\sqrt{d_{model}}}) Sl=softmax(dmodel? ?QKT?)正如上圖右邊所示,對(duì)于正常點(diǎn)位而言,其對(duì)應(yīng)臨近點(diǎn)高斯分布和上下文注意力分布之間差距會(huì)更大,因?yàn)檎|c(diǎn)位與上下文時(shí)序數(shù)據(jù)間關(guān)聯(lián)更大;對(duì)于異常點(diǎn)位而言,它和鄰近點(diǎn)位以及上下文時(shí)序數(shù)據(jù)的關(guān)聯(lián)性較小,屬于比較離群的狀態(tài),因此異常點(diǎn)位的兩種分布差異很??;可以通過這種差異性來區(qū)分正常點(diǎn)位和異常點(diǎn)位(??);
  2. 提出了一種新的重構(gòu)損失構(gòu)建方法: L t o t a l ( X ^ , P , S , λ ; X ) = ∣ ∣ X ? X ^ ∣ ∣ F 2 ? λ ? ∣ ∣ A s s D i s ( P , S ; λ ; X ) ∣ ∣ 1 L_{total}(\hat X,P,S,\lambda;X)=||X-\hat X||^2_F-\lambda*||AssDis(P,S;\lambda;X)||_1 Ltotal?(X^,P,S,λ;X)=∣∣X?X^F2??λ?∣∣AssDis(P,S;λ;X)1?左邊計(jì)算的是預(yù)測值和真實(shí)數(shù)據(jù)間的重構(gòu)損失,差距越大表示數(shù)據(jù)越異常,右邊表示的是高斯分布和注意力分布間的差值損失,差值越大表示數(shù)據(jù)越正常,因此是減去該損失,以此構(gòu)建的重構(gòu)損失能夠讓模型更好地學(xué)習(xí)到正常點(diǎn)位和異常點(diǎn)位之間的差異性;,訓(xùn)練過程中如果想讓分布間的距離變大,就容易導(dǎo)致高斯分布訓(xùn)練出來的 σ \sigma σ趨于0,最終呈現(xiàn)出如下圖的分布:【論文閱讀】基于深度學(xué)習(xí)的時(shí)序異常檢測——Anomaly Transformer,時(shí)間序列分析與處理,深度學(xué)習(xí),論文閱讀,transformer
    為此,他們?cè)O(shè)計(jì)了一種技巧叫Minimax Strategy,在最小化階段,先固定注意力模塊的權(quán)重不變,讓高斯分布的擬合向注意力權(quán)重分布靠近,讓 σ \sigma σ不至于過擬合;然后在最大化二者距離的時(shí)候,固定高斯分布的參數(shù),訓(xùn)練注意力模塊的權(quán)重,讓最終的兩種分布的距離變大,如下圖所示:【論文閱讀】基于深度學(xué)習(xí)的時(shí)序異常檢測——Anomaly Transformer,時(shí)間序列分析與處理,深度學(xué)習(xí),論文閱讀,transformer
  3. 最終的異常分通過下式計(jì)算: A n o m a l y S c o r e ( X ) = s o f t m a x ( ? A s s D i s ( P , S ; λ ; X ) ) ? [ ∣ ∣ X ? X ^ ∣ ∣ 2 2 ] i = 1 , 2 , . . . , N AnomalyScore(X)=softmax(-AssDis(P,S;\lambda;X))\bigodot [||X-\hat X||^2_2]_{i=1,2,...,N} AnomalyScore(X)=softmax(?AssDis(P,S;λ;X))?[∣∣X?X^22?]i=1,2,...,N?通過將重構(gòu)差異和分布距離進(jìn)行聯(lián)合能夠更好地進(jìn)行異常檢測,當(dāng)預(yù)測的異常分?jǐn)?shù)超過某個(gè)閾值時(shí),就認(rèn)為當(dāng)前點(diǎn)位為異常點(diǎn)位;

到了這里,關(guān)于【論文閱讀】基于深度學(xué)習(xí)的時(shí)序異常檢測——Anomaly Transformer的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【論文閱讀】基于深度學(xué)習(xí)的時(shí)序預(yù)測——Autoformer

    【論文閱讀】基于深度學(xué)習(xí)的時(shí)序預(yù)測——Autoformer

    系列文章鏈接 論文一:2020 Informer:長時(shí)序數(shù)據(jù)預(yù)測 論文二:2021 Autoformer:長序列數(shù)據(jù)預(yù)測 論文三:2022 FEDformer:長序列數(shù)據(jù)預(yù)測 論文四:2022 Non-Stationary Transformers:非平穩(wěn)性時(shí)序預(yù)測 論文五:2022 Pyraformer:基于金字塔圖結(jié)構(gòu)的時(shí)序預(yù)測 論文六:2023 Crossformer:多變量時(shí)序預(yù)

    2024年02月13日
    瀏覽(28)
  • 【論文閱讀】基于深度學(xué)習(xí)的時(shí)序預(yù)測——Crossformer

    【論文閱讀】基于深度學(xué)習(xí)的時(shí)序預(yù)測——Crossformer

    系列文章鏈接 論文一:2020 Informer:長時(shí)序數(shù)據(jù)預(yù)測 論文二:2021 Autoformer:長序列數(shù)據(jù)預(yù)測 論文三:2022 FEDformer:長序列數(shù)據(jù)預(yù)測 論文四:2022 Non-Stationary Transformers:非平穩(wěn)性時(shí)序預(yù)測 論文五:2022 Pyraformer:基于金字塔圖結(jié)構(gòu)的時(shí)序預(yù)測 論文六:2023 Crossformer:多變量時(shí)序預(yù)

    2024年02月13日
    瀏覽(28)
  • 【視頻異常檢測綜述-論文閱讀】Deep Video Anomaly Detection: Opportunities and Challenges

    【視頻異常檢測綜述-論文閱讀】Deep Video Anomaly Detection: Opportunities and Challenges

    來源:? Ren, Jing, et al. “Deep Video Anomaly Detection: Opportunities and Challenges.” 2021 International Conference on Data Mining Workshops (ICDMW), Dec. 2021. Crossref, https://doi.org/10.1109/icdmw53433.2021.00125. 文章連接:https://arxiv.org/abs/2110.05086 異常檢測在各種研究環(huán)境中是一項(xiàng)熱門而重要的任務(wù),已經(jīng)研究了

    2023年04月16日
    瀏覽(24)
  • 【視頻異常檢測】Delving into CLIP latent space for Video Anomaly Recognition 論文閱讀

    【視頻異常檢測】Delving into CLIP latent space for Video Anomaly Recognition 論文閱讀

    中文題目:視頻異常識(shí)別的CLIP潛在空間研究 文章信息: 原文鏈接:https://arxiv.org/abs/2310.02835 源代碼:https://github.com/luca-zanella-dvl/AnomalyCLIP 我們介紹了一種新的方法AnomalyCLIP,它首次將大型語言和視覺(LLV)模型(如CLIP)與多實(shí)例學(xué)習(xí)相結(jié)合,用于聯(lián)合視頻異常檢測和分類。

    2024年04月14日
    瀏覽(20)
  • 【圖像異常檢測】SimpleNet: A Simple Network for Image Anomaly Detection and Localization 論文閱讀

    【圖像異常檢測】SimpleNet: A Simple Network for Image Anomaly Detection and Localization 論文閱讀

    中文標(biāo)題:SimpleNet:一個(gè)簡單的圖像異常檢測和定位網(wǎng)絡(luò) 文章信息: 發(fā)表于:CVPR 2023 原文鏈接:https://arxiv.org/abs/2303.15140 源代碼:https://github.com/DonaldRR/SimpleNet 我們提出了一種簡單且易于應(yīng)用的網(wǎng)絡(luò)(稱為SimpleNet)來檢測和定位異常。SimpleNet由四個(gè)組件組成:(1)預(yù)訓(xùn)練的

    2024年04月17日
    瀏覽(32)
  • 【論文閱讀】基于深度學(xué)習(xí)的時(shí)序預(yù)測——Non-stationary Transformers

    【論文閱讀】基于深度學(xué)習(xí)的時(shí)序預(yù)測——Non-stationary Transformers

    系列文章鏈接 論文一:2020 Informer:長時(shí)序數(shù)據(jù)預(yù)測 論文二:2021 Autoformer:長序列數(shù)據(jù)預(yù)測 論文三:2022 FEDformer:長序列數(shù)據(jù)預(yù)測 論文四:2022 Non-Stationary Transformers:非平穩(wěn)性時(shí)序預(yù)測 論文五:2022 Pyraformer:基于金字塔圖結(jié)構(gòu)的時(shí)序預(yù)測 論文六:2023 Crossformer:多變量時(shí)序預(yù)

    2024年02月13日
    瀏覽(25)
  • 【視頻異常檢測 Dual Memory Units with Uncertainty Regulation for Weakly Supervised Video Anomaly...論文閱讀

    【視頻異常檢測 Dual Memory Units with Uncertainty Regulation for Weakly Supervised Video Anomaly...論文閱讀

    中文標(biāo)題:具有不確定性調(diào)節(jié)的雙存儲(chǔ)單元在弱監(jiān)督視頻異常檢測中的應(yīng)用 文章信息: 原文鏈接:https://arxiv.org/abs/2403.06154 源碼:https://github.com/henrryzh1/UR-DMU 發(fā)表于:AAAI 2023 學(xué)習(xí)區(qū)分正常狀態(tài)和異常事件的辨別性特征對(duì)于弱監(jiān)督視頻異常檢測(WS-VAD)任務(wù)至關(guān)重要?,F(xiàn)有方

    2024年04月16日
    瀏覽(26)
  • 【視頻異常檢測】Self-Distilled Masked Auto-Encoders are Efficient Video Anomaly Detectors論文閱讀

    【視頻異常檢測】Self-Distilled Masked Auto-Encoders are Efficient Video Anomaly Detectors論文閱讀

    中文標(biāo)題:自蒸餾掩蔽自動(dòng)編碼器是有效的視頻異常檢測器 文章信息: 發(fā)表于:CVPR 2024 原文鏈接:https://arxiv.org/abs/2306.12041 源代碼:https://github.com/ristea/aed-mae 我們提出了一種基于輕量級(jí)掩碼自動(dòng)編碼器(AE)應(yīng)用于視頻幀級(jí)別的高效異常事件檢測模型。我們提出的模型的新

    2024年03月28日
    瀏覽(32)
  • 【視頻異常檢測】VadCLIP: Adapting Vision-Language Models for Weakly Supervised Video Anomaly Detection 論文閱讀

    【視頻異常檢測】VadCLIP: Adapting Vision-Language Models for Weakly Supervised Video Anomaly Detection 論文閱讀

    文章信息: 發(fā)表于:AAAI(CCF A) 原文鏈接:https://arxiv.org/abs/2308.11681 源碼鏈接:https://github.com/nwpu-zxr/VadCLIP 最近,對(duì)比語言-圖像預(yù)訓(xùn)練(CLIP)模型在各種圖像級(jí)任務(wù)中取得了巨大成功,展現(xiàn)了學(xué)習(xí)豐富語義的強(qiáng)大視覺表示能力。一個(gè)開放且值得探討的問題是如何高效地將這樣一

    2024年03月19日
    瀏覽(31)
  • 《異常檢測——從經(jīng)典算法到深度學(xué)習(xí)》21 Anomaly Transformer:具有關(guān)聯(lián)差異的時(shí)間序列異常檢測

    《異常檢測——從經(jīng)典算法到深度學(xué)習(xí)》21 Anomaly Transformer:具有關(guān)聯(lián)差異的時(shí)間序列異常檢測

    0 概論 1 基于隔離森林的異常檢測算法 2 基于LOF的異常檢測算法 3 基于One-Class SVM的異常檢測算法 4 基于高斯概率密度異常檢測算法 5 Opprentice——異常檢測經(jīng)典算法最終篇 6 基于重構(gòu)概率的 VAE 異常檢測 7 基于條件VAE異常檢測 8 Donut: 基于 VAE 的 Web 應(yīng)用周期性 KPI 無監(jiān)督異常檢測

    2024年02月11日
    瀏覽(23)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包