国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

基于卷積神經(jīng)網(wǎng)絡(luò)的MAE自監(jiān)督方法

這篇具有很好參考價(jià)值的文章主要介紹了基于卷積神經(jīng)網(wǎng)絡(luò)的MAE自監(jiān)督方法。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

本文分享自華為云社區(qū)《基于卷積神經(jīng)網(wǎng)絡(luò)的MAE自監(jiān)督方法》,作者: Hint 。

圖像自監(jiān)督預(yù)訓(xùn)練算法是近年來的重要研究方向,MAE是其中基于ViT實(shí)現(xiàn)的代表性方法,學(xué)習(xí)到了魯棒的視覺特征。MAE全稱是Masked Autoencoders,是由何凱明提出的自監(jiān)督預(yù)訓(xùn)練方法,借鑒了BERT的預(yù)訓(xùn)練任務(wù),將輸入圖片的patch以較大的比例進(jìn)行mask,并通過非對(duì)稱的ViT編碼解碼器結(jié)構(gòu),進(jìn)行masked patches的重建任務(wù)。該方法在性能上超過了以往的對(duì)比學(xué)習(xí)方法,如MoCo系列等。然而ViT的結(jié)構(gòu)復(fù)雜,計(jì)算量龐大,基于CNN的類MAE方法具有極高研究?jī)r(jià)值,但受限于CNN的結(jié)構(gòu)特性,常規(guī)的MAE方式無法直接在CNN上應(yīng)用。本文介紹ICLR2023的方法Spark[1],實(shí)現(xiàn)了基于CNN的MAE。

如上圖所示,對(duì)于一個(gè)masked的輸入圖片,對(duì)ViT輸入和CNN的輸入計(jì)算統(tǒng)計(jì)直方圖,ViT的直方圖是和未mask的圖片分布一致的,而CNN的直方圖發(fā)生了很大變化。這是由于ViT結(jié)構(gòu)天然適合處理變長(zhǎng)、不規(guī)則的輸入,且不同的輸入之間不會(huì)重疊計(jì)算。CNN的滑窗操作和規(guī)則的卷積核形狀,導(dǎo)致模型會(huì)嚴(yán)重受到mask部分的影響。

因此作者借鑒了3D點(diǎn)云領(lǐng)域的稀疏卷積,該卷積只對(duì)未mask的像素進(jìn)行計(jì)算,忽略masked的像素,可以處理不規(guī)則的輸入,實(shí)現(xiàn)了和ViT類似的效果。另外,為了學(xué)習(xí)到多尺度的特征,作者設(shè)計(jì)了分層次的解碼器,參考了UNet的結(jié)構(gòu)設(shè)計(jì),使模型學(xué)習(xí)到多尺度的特征,適應(yīng)CNN的多層級(jí)結(jié)構(gòu)。

從以下的實(shí)驗(yàn)結(jié)果來看,該方法的性能媲美原始的MAE方法,并在各種下游任務(wù)中取得了SOTA的結(jié)果,作者也證明了各個(gè)設(shè)計(jì)模塊的有效性以及該方法的通用性。

[1]Tian K, Jiang Y, Diao Q, et al. Designing BERT for Convolutional Networks: Sparse and Hierarchical Masked Modeling[J]. arXiv preprint arXiv:2301.03580, 2023.

?文章來源地址http://www.zghlxwxcb.cn/news/detail-640326.html

點(diǎn)擊關(guān)注,第一時(shí)間了解華為云新鮮技術(shù)~

?

到了這里,關(guān)于基于卷積神經(jīng)網(wǎng)絡(luò)的MAE自監(jiān)督方法的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 目標(biāo)檢測(cè)YOLO實(shí)戰(zhàn)應(yīng)用案例100講-基于卷積神經(jīng)網(wǎng)絡(luò)的 車輛目標(biāo)檢測(cè)及跟蹤方法研究(續(xù))

    目錄 基于JDE算法的實(shí)時(shí)多目標(biāo)車輛跟蹤方法 4.1引言 4.2 JDE多目標(biāo)跟蹤算法

    2024年02月09日
    瀏覽(25)
  • 基于Transformer(卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò))的情感分類研究

    基于Transformer(卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò))的情感分類研究

    Requirements: * Python: 3.8.5 * PyTorch: 1.8.0 * Transformers: 4.9.0 * NLTK: 3.5 * LTP: 4.0 ?Model: Attention: ? 論文解讀參考: ? https://blog.csdn.net/Magical_Bubble/article/details/89083225 實(shí)驗(yàn)步驟: 1)下載VSstudio2019 注意:安裝時(shí)勾選“Python開發(fā)”和“C++桌面開發(fā)” 2) 下載和安裝nvidia顯卡驅(qū)動(dòng) 下載之后

    2024年02月07日
    瀏覽(34)
  • 基于 Python中的深度學(xué)習(xí):神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)

    基于 Python中的深度學(xué)習(xí):神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)

    當(dāng)下,深度學(xué)習(xí)已經(jīng)成為人工智能研究和應(yīng)用領(lǐng)域的關(guān)鍵技術(shù)之一。作為一個(gè)開源的高級(jí)編程語言,Python提供了豐富的工具和庫,為深度學(xué)習(xí)的研究和開發(fā)提供了便利。本文將深入探究Python中的深度學(xué)習(xí),重點(diǎn)聚焦于神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的原理和應(yīng)用。 深度學(xué)習(xí)是機(jī)器學(xué)

    2024年02月07日
    瀏覽(95)
  • 基于GUI的卷積神經(jīng)網(wǎng)絡(luò)和長(zhǎng)短期神經(jīng)網(wǎng)絡(luò)的語音識(shí)別系統(tǒng),卷積神經(jīng)網(wǎng)的原理,長(zhǎng)短期神經(jīng)網(wǎng)絡(luò)的原理

    基于GUI的卷積神經(jīng)網(wǎng)絡(luò)和長(zhǎng)短期神經(jīng)網(wǎng)絡(luò)的語音識(shí)別系統(tǒng),卷積神經(jīng)網(wǎng)的原理,長(zhǎng)短期神經(jīng)網(wǎng)絡(luò)的原理

    背影 卷積神經(jīng)網(wǎng)絡(luò)CNN的原理 卷積神經(jīng)網(wǎng)絡(luò)CNN的定義 卷積神經(jīng)網(wǎng)絡(luò)CNN的神經(jīng)元 卷積神經(jīng)網(wǎng)絡(luò)CNN的激活函數(shù) 卷積神經(jīng)網(wǎng)絡(luò)CNN的傳遞函數(shù) 長(zhǎng)短期神經(jīng)網(wǎng)絡(luò)的原理 基于GUI的卷積神經(jīng)網(wǎng)絡(luò)和長(zhǎng)短期神經(jīng)網(wǎng)絡(luò)的語音識(shí)別系統(tǒng) 代碼下載鏈接:基于MATLABGUI編程的卷積神經(jīng)網(wǎng)絡(luò)和長(zhǎng)短期神

    2024年02月12日
    瀏覽(20)
  • 手寫數(shù)字識(shí)別-基于卷積神經(jīng)網(wǎng)絡(luò)

    手寫數(shù)字識(shí)別-基于卷積神經(jīng)網(wǎng)絡(luò)

    ??歡迎來到機(jī)器學(xué)習(xí)的世界? ??博客主頁:卿云閣 ???歡迎關(guān)注??點(diǎn)贊??收藏??留言?? ??本文由卿云閣原創(chuàng)! ??本階段屬于練氣階段,希望各位仙友順利完成突破 ??首發(fā)時(shí)間:??2021年6月5日?? ??希望可以和大家一起完成進(jìn)階之路! ??作者水平很有限,如果發(fā)

    2024年02月10日
    瀏覽(18)
  • 基于卷積神經(jīng)網(wǎng)絡(luò)的種子等級(jí)識(shí)別

    基于卷積神經(jīng)網(wǎng)絡(luò)的種子等級(jí)識(shí)別

    背影 卷積神經(jīng)網(wǎng)絡(luò)CNN的原理 卷積神經(jīng)網(wǎng)絡(luò)CNN的定義 卷積神經(jīng)網(wǎng)絡(luò)CNN的神經(jīng)元 卷積神經(jīng)網(wǎng)絡(luò)CNN的激活函數(shù) 卷積神經(jīng)網(wǎng)絡(luò)CNN的傳遞函數(shù) 基于卷積神經(jīng)網(wǎng)絡(luò)的花生識(shí)別,基于卷積神經(jīng)網(wǎng)絡(luò)的種子識(shí)別 代碼下載鏈接:基于卷積神經(jīng)網(wǎng)絡(luò)的花生識(shí)別,基于卷積神經(jīng)網(wǎng)絡(luò)的種子識(shí)別,

    2024年02月11日
    瀏覽(22)
  • 基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)分類案例

    基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)分類案例

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN 是一類包含卷積計(jì)算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Networks),是深度學(xué)習(xí)(deep learning)的代表算法之一 。卷積神經(jīng)網(wǎng)絡(luò)具有表征學(xué)習(xí)(representation learning)能力,能夠按其階層結(jié)構(gòu)對(duì)輸入信息進(jìn)行平移不變分類(

    2024年02月12日
    瀏覽(21)
  • 基于卷積神經(jīng)網(wǎng)絡(luò)的高光譜圖像分類

    基于卷積神經(jīng)網(wǎng)絡(luò)的高光譜圖像分類

    近年來深度學(xué)習(xí)的技術(shù)在計(jì)算機(jī)視覺領(lǐng)域中大放異彩,使得對(duì)多光譜數(shù)據(jù)分類的研究迅速發(fā)展,結(jié)合2D-CNN,3D-CNN,注意力機(jī)制,PCA降維等方法均可使得對(duì)多光譜圖像的分類精度得以提升。目前CNN網(wǎng)絡(luò)大量用于傳統(tǒng)的CV領(lǐng)域,而對(duì)于高光譜圖像的分類仍比較缺乏,本文章基于C

    2024年02月10日
    瀏覽(30)
  • MATLAB基于卷積神經(jīng)網(wǎng)絡(luò)的手勢(shì)識(shí)別

    MATLAB基于卷積神經(jīng)網(wǎng)絡(luò)的手勢(shì)識(shí)別

    目錄 1. 數(shù)據(jù)集介紹 ?2. 訓(xùn)練、保存網(wǎng)絡(luò) 3. 手勢(shì)識(shí)別 4. 識(shí)別結(jié)果 5. 總結(jié) 本實(shí)驗(yàn)所用數(shù)據(jù)集為從Kaggle平臺(tái)下載的手語數(shù)據(jù)集(sign_mnist)中選取的部分?jǐn)?shù)據(jù)。 sign_mnist 數(shù)據(jù)集格式的模式化與經(jīng)典 MNIST 緊密匹配。每個(gè)訓(xùn)練和測(cè)試用例表示一個(gè)標(biāo)簽 (0-25),作為每個(gè)字母 A-Z 的一

    2024年02月06日
    瀏覽(90)
  • 手勢(shì)識(shí)別系統(tǒng)Python,基于卷積神經(jīng)網(wǎng)絡(luò)算法

    手勢(shì)識(shí)別系統(tǒng)Python,基于卷積神經(jīng)網(wǎng)絡(luò)算法

    手勢(shì)識(shí)別系統(tǒng),使用Python作為主要開發(fā)語言,基于深度學(xué)習(xí)TensorFlow框架,搭建卷積神經(jīng)網(wǎng)絡(luò)算法。并通過對(duì)數(shù)據(jù)集進(jìn)行訓(xùn)練,最后得到一個(gè)識(shí)別精度較高的模型。并基于Django框架,開發(fā)網(wǎng)頁端操作平臺(tái),實(shí)現(xiàn)用戶上傳一張圖片識(shí)別其名稱。 視頻+代碼:https://www.yuque.com/ziwu/

    2024年02月09日
    瀏覽(25)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包