国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【論文閱讀 09】融合門控自注意力機(jī)制的生成對(duì)抗網(wǎng)絡(luò)視頻異常檢測(cè)

這篇具有很好參考價(jià)值的文章主要介紹了【論文閱讀 09】融合門控自注意力機(jī)制的生成對(duì)抗網(wǎng)絡(luò)視頻異常檢測(cè)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

? ? ? ? 2021年 中國(guó)圖象圖形學(xué)報(bào)

摘 要

背景: 視頻異常行為檢測(cè)是智能監(jiān)控技術(shù)的研究重點(diǎn),廣泛應(yīng)用于社會(huì)安防領(lǐng)域。當(dāng)前的挑戰(zhàn)之一是如何提高異常檢測(cè)的準(zhǔn)確性,這需要有效地建模視頻數(shù)據(jù)的空間維度和時(shí)間維度信息。生成對(duì)抗網(wǎng)絡(luò)(GANs)因其結(jié)構(gòu)優(yōu)勢(shì)而被廣泛應(yīng)用于視頻異常行為檢測(cè)。

方法: 本文提出了一種改進(jìn)的生成對(duì)抗網(wǎng)絡(luò)方法,用于視頻異常行為檢測(cè)。該方法在生成對(duì)抗網(wǎng)絡(luò)的生成網(wǎng)絡(luò)?U-net 部分引入了門控自注意力機(jī)制,用于逐層分配特征圖的權(quán)重,以更好地融合了 U-net 網(wǎng)絡(luò)和門控自注意力機(jī)制的性能優(yōu)勢(shì)。這有助于抑制與異常檢測(cè)任務(wù)無(wú)關(guān)的背景區(qū)域特征,突出不同目標(biāo)對(duì)象的相關(guān)特征表達(dá),更有效地建模了視頻數(shù)據(jù)的時(shí)空維度信息。方法還包括使用 LiteFlownet 網(wǎng)絡(luò)提取視頻流中的運(yùn)動(dòng)信息,以保持視頻序列之間的連續(xù)性。此外,引入了強(qiáng)度損失函數(shù)、梯度損失函數(shù)和運(yùn)動(dòng)損失函數(shù),以增強(qiáng)模型的檢測(cè)穩(wěn)定性,從而實(shí)現(xiàn)對(duì)視頻異常行為的檢測(cè)。

實(shí)驗(yàn)結(jié)果: 作者在多個(gè)視頻異常事件數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)驗(yàn)證,包括 CUHK Avenue、UCSD Ped1 和 UCSD Ped2 數(shù)據(jù)集。實(shí)驗(yàn)結(jié)果顯示,本文方法在 CUHK Avenue 數(shù)據(jù)集上的 AUC 達(dá)到了 87.2%,比同類方法提高了2.3%。在 UCSD Ped1 和 UCSD Ped2 數(shù)據(jù)集上,本文方法的 AUC 值也高于其他方法。作者還進(jìn)行了消融實(shí)驗(yàn),并比較了實(shí)驗(yàn)結(jié)果,驗(yàn)證了本文方法的有效性和性能優(yōu)勢(shì)。

結(jié)論: 實(shí)驗(yàn)結(jié)果表明,本文提出的方法更適合視頻異常行為檢測(cè)任務(wù),它有效地提高了異常行為檢測(cè)模型的穩(wěn)定性和準(zhǔn)確性。同時(shí),使用視頻序列幀間的運(yùn)動(dòng)信息可以顯著提升異常行為檢測(cè)性能。

?0??引言

????????視頻中的異常檢測(cè)是指在監(jiān)控視頻中識(shí)別不符合預(yù)期的行為事件。這一領(lǐng)域的應(yīng)用廣泛,包括智能安防、智能家居和醫(yī)學(xué)康復(fù)等,具有重要的研究意義和實(shí)際價(jià)值。視頻異常檢測(cè)面臨多個(gè)挑戰(zhàn):

  1. 異常行為的多樣性:異常行為在視頻中可以有各種各樣的形式,難以將其全部列舉或描述。
  2. 低概率事件:異常事件在視頻中的發(fā)生概率通常較低,這使得異常行為的學(xué)習(xí)變得更加困難。
  3. 特征學(xué)習(xí)難度:由于異常行為的多樣性和低概率,對(duì)所有可能的異常行為進(jìn)行特征學(xué)習(xí)幾乎是不可行的。


????????傳統(tǒng)的視頻異常行為檢測(cè)方法需人工提取視頻中目標(biāo)對(duì)象的表觀輪廓、運(yùn)動(dòng)信息和軌跡等特征,如梯度直方圖( histogram of oriented gradient,HOG) 可 表示目標(biāo)對(duì)象表觀輪廓的特征信息( Li 等,2015) , 通過(guò)光流特征圖可捕捉目標(biāo)對(duì)象的運(yùn)動(dòng)信息特征 ( Li 等,2015) ; 通過(guò)軌跡可提取運(yùn)動(dòng)目標(biāo)的軌跡特 征( Ahmed 等,2019) 。但此類方法在表示形式上較 為單一且無(wú)法學(xué)習(xí)預(yù)期之外事件的特征,同時(shí)處理海量視頻數(shù)據(jù)能力較弱,已較難得到新的突破。
????????基于深度學(xué)習(xí)的方法越來(lái)越多地應(yīng)用于視頻異常行為檢測(cè),可通過(guò)自動(dòng)從海量數(shù)據(jù)集中學(xué)習(xí)數(shù)據(jù) 本身的分布規(guī)律來(lái)提取出更加魯棒的高級(jí)特征,已 取代基于人工構(gòu)建行為特征的傳統(tǒng)方法。目前,基 于深度學(xué)習(xí)的監(jiān)控視頻異常行為檢測(cè)方法主要分為 重構(gòu)判別和未來(lái)幀預(yù)測(cè)兩類。
????????基于重構(gòu)判別的方法認(rèn)為,通過(guò)模型訓(xùn)練學(xué)習(xí) 正常樣本在樣本空間服從的分布,符合該分布的正 常樣本都能較好地重構(gòu),重構(gòu)誤差大的樣本屬于異 常樣本( 胡海洋 等,2020) 。Hasan 等人( 2016) 利用 卷積自編碼器( convolution auto-encoder,CAE) 對(duì)目 標(biāo)幀進(jìn)行誤差重構(gòu)來(lái)檢測(cè)視頻中的異常行為; Luo等人( 2017 ) 通 過(guò) 利 用 卷 積 長(zhǎng) 短 期 記 憶 自 編 碼 器 ( convolution long-short term memory auto-encoder,Conv LSTM-AE) 重構(gòu)目標(biāo)對(duì)象的外觀信息和運(yùn)動(dòng)信 息進(jìn)行異常行為檢測(cè),提出將稀疏編碼映射到堆疊 的循環(huán)神經(jīng)網(wǎng)絡(luò) ( stacked recurrent neural network,sRNN) 框架中重構(gòu)異常行為。但由于深度學(xué)習(xí)方法 具有強(qiáng)大的學(xué)習(xí)能力,對(duì)正常事件和異常事件的重 構(gòu)結(jié)果是相似的,此類方法并不能保證對(duì)異常事件 的重構(gòu)誤差一定很大。因此,幾乎所有基于重構(gòu)誤 差的方法都不能保證準(zhǔn)確檢測(cè)出異常事件。
????????基于未來(lái)幀預(yù)測(cè)的方法假設(shè)正常行為是有規(guī)律 的且是可預(yù)測(cè)的,而視頻中異常行為事件由于其不 確定性不可預(yù)測(cè)。該類方法可通過(guò)生成未來(lái)目標(biāo)幀 的預(yù)測(cè)幀,將其與對(duì)應(yīng)的視頻真實(shí)幀進(jìn)行對(duì)比來(lái)判 斷該視頻中是否包含異常行為。目前,生成對(duì)抗網(wǎng) 絡(luò)( generative adversarial network,GAN) 在視頻異常 檢測(cè)領(lǐng)域已取得突破性進(jìn)展,其網(wǎng)絡(luò)架構(gòu)可很好地 用于預(yù)測(cè)。Liu 等人( 2018) 提出基于 U-net 的條件 生成對(duì)抗網(wǎng)絡(luò)進(jìn)行異常行為檢測(cè),同時(shí)加入 Flownet光流網(wǎng)絡(luò)對(duì)運(yùn)動(dòng)特征約束; Dong 等人( 2020) 在此基 礎(chǔ)上提出基于對(duì)偶生成對(duì)抗網(wǎng)絡(luò)模型,利用雙生成 器和雙鑒別器的對(duì)偶結(jié)構(gòu)分別對(duì)外觀和運(yùn)動(dòng)信息進(jìn) 行異常判別; Nguyen 等人( 2019) 提出采用卷積自編 碼器學(xué)習(xí)空間結(jié)構(gòu),將空間特征輸入 U-net 中與運(yùn) 動(dòng)信息相關(guān)聯(lián)從而進(jìn)行異常檢測(cè)。
????????基于生成對(duì)抗網(wǎng)絡(luò)的視頻異常行為檢測(cè)方法通 過(guò)生成器 U-net 的良好性能捕獲了訓(xùn)練樣本空間特 征,但仍存在一定的局限性( 馬鈺錫 等,2019) ,主要 表現(xiàn)為: 1) 雖然已能夠檢測(cè)出視頻中的異常行為,但如何有效建??臻g維度信息和時(shí)間維度信息提高 異常檢測(cè)的精度仍是目前研究領(lǐng)域的重難點(diǎn); 2) 針 對(duì)目標(biāo)對(duì)象的空間特征的提取,基礎(chǔ)的 U-net 無(wú)法 建立長(zhǎng)距離依賴性,不能將特征信息進(jìn)行有效連接;3) 除數(shù)據(jù)樣本的空間特征外,時(shí)間信息也是視頻的 一個(gè)重要特征?,F(xiàn)有大多數(shù)工作對(duì)視頻的時(shí)間信息 特征利用不夠充分。
????????為了更好地解決此問(wèn)題,本文提出一種融合門 控自注意力機(jī)制的生成對(duì)抗網(wǎng)絡(luò)方法,在 U-net 生 成器部分中逐層引入門控自注意力機(jī)制來(lái)更好地學(xué) 習(xí)視頻樣本的空間維度信息,同時(shí)采用 LiteFlownet網(wǎng)絡(luò)來(lái)對(duì)視頻樣本的時(shí)間維度信息進(jìn)行更好地提 取。但該模型易受噪聲影響,需同時(shí)加入強(qiáng)度損失 函數(shù)、梯度損失函數(shù)和運(yùn)動(dòng)損失函數(shù)加強(qiáng)模型檢測(cè) 的穩(wěn)定性以實(shí)現(xiàn)對(duì)異常行為的檢測(cè)。
????????本文的貢獻(xiàn)主要有以下 3 個(gè)方面: 1) 考慮視頻序列幀之間的時(shí)間和空間 2 維關(guān)系,提出一種改進(jìn) 的異常行為檢測(cè)模型。利用生成對(duì)抗網(wǎng)絡(luò)中的生成 模塊對(duì)視頻中的空間特征進(jìn)行提取,利用 LiteFlownet 光流網(wǎng)絡(luò)對(duì)運(yùn)動(dòng)信息的時(shí)間特征進(jìn)行提取,引入門控自注意力機(jī)制對(duì)特征圖進(jìn)行加權(quán)處理,實(shí)現(xiàn)了 視頻序列之間時(shí)空特征更有效的表達(dá)。2 ) 引入門控自注意力機(jī)制,逐層對(duì) U-net 采樣過(guò)程中的特征 進(jìn)行加權(quán)計(jì)算。該自注意力機(jī)制在視頻幀的單層特 征中對(duì)遠(yuǎn)距離且具有空間相關(guān)性的特征進(jìn)行建模, 可自動(dòng)尋找圖像特征中的相關(guān)部分,提高對(duì)視頻幀 中時(shí)間和空間兩個(gè)維度的特征響應(yīng)。3) 選用 LiteFlownet 光流網(wǎng)絡(luò)對(duì)運(yùn)動(dòng)信息進(jìn)行提取,得到視頻幀 之間的時(shí)間關(guān)聯(lián),進(jìn)一步提高了該模型的檢測(cè)性能。

2??方法

模型組成部分: 融合門控自注意力機(jī)制的生成對(duì)抗網(wǎng)絡(luò)模型包括以下 4 部分:

  1. 生成模塊:使用引入了門控注意力機(jī)制的 U-net 模型(AGs U-net)來(lái)生成預(yù)測(cè)幀。
  2. 損失約束模塊:用于施加損失約束,包括強(qiáng)度損失和梯度損失函數(shù),以進(jìn)行空間約束。
  3. 對(duì)抗訓(xùn)練模塊:利用馬爾可夫判別器(Patch GAN)進(jìn)行訓(xùn)練,通過(guò)對(duì)抗學(xué)習(xí)來(lái)優(yōu)化模型。
  4. 異常判別模塊:用于識(shí)別異常行為。

訓(xùn)練數(shù)據(jù): 模型的訓(xùn)練數(shù)據(jù)包括正常視頻幀序列,其中連續(xù) t - 1 幀的正常視頻幀按時(shí)間順序堆疊起來(lái),作為訓(xùn)練視頻 I1 ,I2 ,...,It -1 ,用于輸入生成器網(wǎng)絡(luò) AGs U-net,以預(yù)測(cè)下一幀(I't)。同時(shí),真實(shí)幀(It)也用于訓(xùn)練和比較。
損失函數(shù): 為了更好地預(yù)測(cè)正常行為下一幀,采用強(qiáng)度損失和梯度損失函數(shù)進(jìn)行空間約束。這些損失函數(shù)有助于提高模型的性能。
運(yùn)動(dòng)信息處理: 為了增強(qiáng)相鄰幀之間的運(yùn)動(dòng)特征相關(guān)性,采用了 LiteFlownet 光流網(wǎng)絡(luò),以更快速和平滑的方式提取運(yùn)動(dòng)信息,從而可以更準(zhǔn)確地預(yù)測(cè)正常行為的下一幀。
異常檢測(cè): 當(dāng)有異常行為樣本輸入時(shí),模型將正常模式下的預(yù)測(cè)幀與實(shí)際真實(shí)值進(jìn)行比較,如果誤差較大,則異常分?jǐn)?shù)下降,從而識(shí)別該事件樣本為異常事件。

本文模型的整體框架如圖 1 所示。
門控融合機(jī)制,計(jì)算機(jī)視覺(jué),論文精讀,論文閱讀,生成對(duì)抗網(wǎng)絡(luò),人工智能

門控融合機(jī)制,計(jì)算機(jī)視覺(jué),論文精讀,論文閱讀,生成對(duì)抗網(wǎng)絡(luò),人工智能文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-770868.html

到了這里,關(guān)于【論文閱讀 09】融合門控自注意力機(jī)制的生成對(duì)抗網(wǎng)絡(luò)視頻異常檢測(cè)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • FSOD論文閱讀 - 基于卷積和注意力機(jī)制的小樣本目標(biāo)檢測(cè)

    FSOD論文閱讀 - 基于卷積和注意力機(jī)制的小樣本目標(biāo)檢測(cè)

    標(biāo)題:基于卷積和注意力機(jī)制的小樣本目標(biāo)檢測(cè) 作者:郭永紅,牛海濤,史超,郭鋮 郭永紅,牛海濤,史超,郭鋮.基于卷積和注意力機(jī)制的小樣本目標(biāo)檢測(cè) [J/OL].兵工學(xué)報(bào). https://link.cnki.net/urlid/11.2176.TJ.20231108.1418.002 典型的FSOD使用Fast R-CNN作為基本的檢測(cè)框架 本文亮點(diǎn):引入

    2024年01月24日
    瀏覽(29)
  • 基于可變形卷積和注意力機(jī)制的帶鋼表面缺陷快速檢測(cè)網(wǎng)絡(luò)DCAM-Net(論文閱讀筆記)

    基于可變形卷積和注意力機(jī)制的帶鋼表面缺陷快速檢測(cè)網(wǎng)絡(luò)DCAM-Net(論文閱讀筆記)

    原論文鏈接-DCAM-Net: A Rapid Detection Network for Strip Steel Surface Defects Based on Deformable Convolution and Attention Mechanism | IEEE Journals Magazine | IEEE Xplore DCAM-Net: A Rapid Detection Network for Strip Steel Surface Defects Based on Deformable Convolution and Attention Mechanism(論文標(biāo)題) 帶鋼 (the strip steel)表面缺陷檢測(cè)

    2024年02月04日
    瀏覽(30)
  • Python環(huán)境下基于門控雙注意力機(jī)制的滾動(dòng)軸承剩余使用壽命RUL預(yù)測(cè)(Tensorflow模塊)

    Python環(huán)境下基于門控雙注意力機(jī)制的滾動(dòng)軸承剩余使用壽命RUL預(yù)測(cè)(Tensorflow模塊)

    機(jī)械設(shè)備的壽命是其從開(kāi)始工作持續(xù)運(yùn)行直至故障出現(xiàn)的整個(gè)時(shí)間段,以滾動(dòng)軸承為例,其壽命為開(kāi)始轉(zhuǎn)動(dòng)直到滾動(dòng)體或是內(nèi)外圈等元件出現(xiàn)首次出現(xiàn)故障前。目前主流的滾動(dòng)軸承RUL預(yù)測(cè)分類方法包含兩種:一是基于物理模型的RUL預(yù)測(cè)方法,二是基于數(shù)據(jù)驅(qū)動(dòng)的RUL預(yù)測(cè)方法。

    2024年02月22日
    瀏覽(20)
  • ACMix:清華提出融合卷積與自注意力機(jī)制的模塊

    ACMix:清華提出融合卷積與自注意力機(jī)制的模塊

    前幾天看了一篇由清華大學(xué)發(fā)表的融合卷積與自注意力機(jī)制的文章,其中將融合模塊稱為 ACMix。本文主要就其中的融合細(xì)節(jié)進(jìn)行講述。 paper:http://arxiv.org/abs/2111.14556 code:https://github.com/LeapLabTHU/ACmix quad 有兩個(gè)方面:(1) 揭示了自注意力和卷積之間的強(qiáng)大潛在關(guān)系,為理解兩個(gè)

    2024年02月04日
    瀏覽(15)
  • 高創(chuàng)新 | Matlab實(shí)現(xiàn)OOA-CNN-GRU-Attention魚(yú)鷹算法優(yōu)化卷積門控循環(huán)單元注意力機(jī)制多變量回歸預(yù)測(cè)

    高創(chuàng)新 | Matlab實(shí)現(xiàn)OOA-CNN-GRU-Attention魚(yú)鷹算法優(yōu)化卷積門控循環(huán)單元注意力機(jī)制多變量回歸預(yù)測(cè)

    預(yù)測(cè)效果 基本介紹 1.Matlab實(shí)現(xiàn)OOA-CNN-GRU-Attention魚(yú)鷹算法優(yōu)化卷積門控循環(huán)單元注意力機(jī)制多變量回歸預(yù)測(cè); 2.運(yùn)行環(huán)境為Matlab2021b; 3.data為數(shù)據(jù)集,excel數(shù)據(jù),輸入多個(gè)特征,輸出單個(gè)變量,多變量回歸預(yù)測(cè); main.m為主程序,運(yùn)行即可,所有文件放在一個(gè)文件夾; 4.命令窗口

    2024年04月12日
    瀏覽(26)
  • 人工智能(Pytorch)搭建模型5-注意力機(jī)制模型的構(gòu)建與GRU模型融合應(yīng)用

    人工智能(Pytorch)搭建模型5-注意力機(jī)制模型的構(gòu)建與GRU模型融合應(yīng)用

    大家好,我是微學(xué)AI,今天給大家介紹一下人工智能(Pytorch)搭建模型5-注意力機(jī)制模型的構(gòu)建與GRU模型融合應(yīng)用。注意力機(jī)制是一種神經(jīng)網(wǎng)絡(luò)模型,在序列到序列的任務(wù)中,可以幫助解決輸入序列較長(zhǎng)時(shí)難以獲取全局信息的問(wèn)題。該模型通過(guò)對(duì)輸入序列不同部分賦予不同的 權(quán)

    2024年02月12日
    瀏覽(97)
  • [自注意力神經(jīng)網(wǎng)絡(luò)]Segment Anything(SAM)論文閱讀

    [自注意力神經(jīng)網(wǎng)絡(luò)]Segment Anything(SAM)論文閱讀

    論文地址 https://arxiv.org/abs/2304.02643 源碼地址 https://github.com/facebookresearch/segment-anything 強(qiáng)烈建議大家試試Demo,效果真的很好:https://segment-anything.com/ ? ? ? ? 本文建立了一個(gè)基礎(chǔ)圖像分割模型,并將其在一個(gè)巨大的數(shù)據(jù)集上進(jìn)行訓(xùn)練,目的是解決一系列下游任務(wù)。本文的關(guān)鍵

    2023年04月23日
    瀏覽(26)
  • 《論文閱讀》具有特殊Token和輪級(jí)注意力的層級(jí)對(duì)話理解 ICLR 2023

    《論文閱讀》具有特殊Token和輪級(jí)注意力的層級(jí)對(duì)話理解 ICLR 2023

    前言 你是否也對(duì)于理解論文存在困惑? 你是否也像我之前搜索論文解讀,得到只是中文翻譯的解讀后感到失望? 小白如何從零讀懂論文?和我一起來(lái)探索吧! 今天為大家?guī)?lái)的是《HIERARCHICAL DIALOGUE UNDERSTANDING WITH SPECIAL TOKENS AND TURN-LEVEL ATTENTION》 出版:ICLR 時(shí)間?

    2024年02月15日
    瀏覽(22)
  • haiku實(shí)現(xiàn)門控多頭注意力模塊

    在多頭注意力機(jī)制中,通常輸入的數(shù)據(jù)包括查詢(Q)、鍵(K)和值(V)。這些數(shù)據(jù)的維度以及權(quán)重矩陣的維度在多頭注意力機(jī)制中扮演關(guān)鍵角色。下面對(duì)數(shù)據(jù)及權(quán)重的維度進(jìn)行解釋: 輸入數(shù)據(jù)(Queries, Keys, Values): Queries (Q): 表示待查詢的信息,通常對(duì)應(yīng)輸入序列的每個(gè)位置

    2024年01月19日
    瀏覽(26)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包