国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

關(guān)于Swin Transformer的架構(gòu)記錄

這篇具有很好參考價值的文章主要介紹了關(guān)于Swin Transformer的架構(gòu)記錄。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

Swin Transformer 可以說是批著Transformer外表的卷積神經(jīng)網(wǎng)絡(luò)。

具體的架構(gòu)如下圖所示:

關(guān)于Swin Transformer的架構(gòu)記錄,transformer,深度學習,人工智能

首先我們得到一張224*224*3的圖片。

通過分成4*4的patch,變成了56*56*48。

線性變換后又變成了56*56*96。

然后利用了Swin Transformer中一個比較特別的結(jié)構(gòu) Patch Merging 變成28*28*192。

同理,變成14*14*384。

同理,變成7*7*768。

這是總體的過程,Swin Transformer內(nèi)部是由W-MSA 和SW-MSA組成的。

另外一個比較重要的是針對移位配置的高效批量計算。

關(guān)于Swin Transformer的架構(gòu)記錄,transformer,深度學習,人工智能

移動窗口分區(qū)的一個問題是,它將導致更多的窗口,一些窗口將小于M×M。

一個簡單的解決方案是將較小的窗口填充到M×M的大小,并在計算注意力時屏蔽填充的值。這種樸素解增加的計算量是相當大的(2×2→ 3×3,是2.25倍)。

利用下圖所示的方法:

關(guān)于Swin Transformer的架構(gòu)記錄,transformer,深度學習,人工智能

在該偏移之后,分批窗口可以由在特征圖中不相鄰的幾個子窗口組成,因此采用掩蔽機制來將自注意計算限制在每個子窗口內(nèi)。

掩碼如下:

關(guān)于Swin Transformer的架構(gòu)記錄,transformer,深度學習,人工智能文章來源地址http://www.zghlxwxcb.cn/news/detail-830204.html

到了這里,關(guān)于關(guān)于Swin Transformer的架構(gòu)記錄的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 論文學習筆記:Swin Transformer: Hierarchical Vision Transformer using Shifted Windows

    論文學習筆記:Swin Transformer: Hierarchical Vision Transformer using Shifted Windows

    論文閱讀:Swin Transformer: Hierarchical Vision Transformer using Shifted Windows 今天學習的論文是 ICCV 2021 的 best paper,Swin Transformer,可以說是 transformer 在 CV 領(lǐng)域的一篇里程碑式的工作。文章的標題是一種基于移動窗口的層級 vision transformer。文章的作者都來自微軟亞研院。 Abstract 文章的

    2024年02月08日
    瀏覽(23)
  • Swin-transformer論文閱讀筆記(Swin Transformer: Hierarchical Vision Transformer using Shifted Windows)

    Swin-transformer論文閱讀筆記(Swin Transformer: Hierarchical Vision Transformer using Shifted Windows)

    論文標題:Swin Transformer: Hierarchical Vision Transformer using Shifted Windows 論文作者:Ze Liu, Yutong Lin, Yue Cao, Han Hu, Yixuan Wei, Zheng Zhang, Stephen Lin, Baining Guo 論文來源:ICCV 2021,Paper 代碼來源:Code 目錄 1. 背景介紹 2. 研究現(xiàn)狀 CNN及其變體 基于自注意的骨干架構(gòu) 自注意/Transformer來補充CN

    2024年02月07日
    瀏覽(24)
  • transformer概述和swin-transformer詳解

    目錄 1.transformer架構(gòu) 1.1輸入部分實現(xiàn) 1.2編碼器部分實現(xiàn) 1.2.1掩碼張量 1.2.2注意力機制 1.2.3多頭注意力機制 1.2.4前饋全連接層 1.2.5規(guī)范化層 1.2.6子層連接層 1.2.7編碼器層 1.2.8編碼器 1.3解碼器部分實現(xiàn) 1.3.1解碼器層 1.3.2解碼器 1.4輸出部分實現(xiàn) 2.swin-transformer transformer的整體網(wǎng)絡(luò)架

    2024年02月03日
    瀏覽(33)
  • Swin Transformer詳解

    Swin Transformer詳解

    原創(chuàng):余曉龍 “Swin Transformer: Hierarchical Vision Transformer using Shifted Window”是微軟亞洲研究院(MSRA)發(fā)表在arXiv上的論文,文中提出了一種新型的Transformer架構(gòu),也就是Swin Transformer。本文旨在對Swin Transformer架構(gòu)進行詳細解析。 整體的網(wǎng)絡(luò)架構(gòu)采取層次化的設(shè)計,共包含4個stag

    2024年02月06日
    瀏覽(18)
  • Swin-transformer詳解

    Swin-transformer詳解

    這篇論文提出了一個新的 Vision Transformer 叫做 Swin Transformer,它可以被用來作為一個計算機視覺領(lǐng)域一個通用的骨干網(wǎng)絡(luò).但是直接把Transformer從 NLP 用到 Vision 是有一些挑戰(zhàn)的,這個挑戰(zhàn)主要來自于兩個方面 一個就是尺度上的問題。因為比如說現(xiàn)在有一張街景的圖片,里面有很

    2024年02月05日
    瀏覽(24)
  • VIT與swin transformer

    VIT與swin transformer

    VIT也就是vision transformer的縮寫。是第一種將transformer運用到計算機視覺的網(wǎng)絡(luò)架構(gòu)。其將注意力機制也第一次運用到了圖片識別上面。其結(jié)構(gòu)圖如下(采用的是paddle公開視頻的截圖) 看起來比較復(fù)雜,但實際上總體流程還是比較簡單的。只需要看最右邊的總的結(jié)構(gòu)圖,它的輸

    2024年02月05日
    瀏覽(27)
  • Swin-Transformer 詳解

    Swin-Transformer 詳解

    由于Transformer的大火,相對應(yīng)的也出來了許多文章,但是這些文章的速度和精度相較于CNN還是差點意思,2021年微軟研究院發(fā)表在ICCV上的一篇文章Swin Transformer是Transformer模型在視覺領(lǐng)域的又一次碰撞,Swin Transformer可能是CNN的完美替代方案。 論文名稱:Swin Transformer: Hierarchical

    2024年02月04日
    瀏覽(23)
  • YOLOv5+Swin Transformer

    參考:(7條消息) 改進YOLOv5系列:3.YOLOv5結(jié)合Swin Transformer結(jié)構(gòu),ICCV 2021最佳論文 使用 Shifted Windows 的分層視覺轉(zhuǎn)換器_芒果汁沒有芒果的博客-CSDN博客 本科生工科生cv改代碼 本來做的7,但是7報錯一直解決不了,我就試試5 1、先是第一個報錯 解決:在yolo.py里 2、 解決:common里刪

    2024年02月12日
    瀏覽(17)
  • 李沐論文精讀系列二:Vision Transformer、MAE、Swin-Transformer

    李沐論文精讀系列二:Vision Transformer、MAE、Swin-Transformer

    傳送門: 李沐論文精讀系列一: ResNet、Transformer、GAN、BERT 李沐論文精讀系列三:MoCo、對比學習綜述(MoCov1/v2/v3、SimCLR v1/v2、DINO等) 李沐論文精讀系列四:CLIP和改進工作串講(LSeg、GroupViT、VLiD、 GLIPv1、 GLIPv2、CLIPasso) 論文名稱: An Image Is Worth 16x16 Words: Transformers For Imag

    2024年01月17日
    瀏覽(24)
  • Swin Transformer之相對位置編碼詳解

    Swin Transformer之相對位置編碼詳解

    目錄 一、概要 二、具體解析 1. 相對位置索引計算第一步 ?2. 相對位置索引計算第二步 3. 相對位置索引計算第三步 ? ? ?在 Swin Transformer 采用了 相對位置編碼 的概念。 ? ? ? 那么相對位置編碼的作用是什么呢? ? ? ? ?? ?解釋: 在解釋相對位置編碼之前,我們需要先了解

    2023年04月16日
    瀏覽(26)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包