国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

論文筆記:基于并行注意力 UNet的裂縫檢測方法

這篇具有很好參考價值的文章主要介紹了論文筆記:基于并行注意力 UNet的裂縫檢測方法。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

0 簡介

論文:基于并行注意力 UNet的裂縫檢測方法(Parallel Attention Based UNet for Crack Detection);
發(fā)表:2021年發(fā)表在《計算機研究與發(fā)展》上。

1 問題分析

問題:裂縫圖像中存在噪聲、光線、陰影等因素干擾;
解決方法:比較流行的解決方案是嵌入注意力機制以抑制各種干擾;
缺點:現(xiàn)有的注意力機制大都采用串行結構,能有效抑制大部分干擾,但仍受到明亮噪聲的影響,導致效果降低;
本文的方法:設計一種并行注意力機制,從空間和通道2個維度抑制干擾,通過并行結構融合兩者特征以獲取更具互補性的裂縫特征,有效抑制了各種干擾。

2 具體方案

論文筆記:基于并行注意力 UNet的裂縫檢測方法
三個部分組成:

  • 網絡的編碼層,由卷積和池化組成;
  • 網絡的解碼層,由卷 積、反卷積和sigmoid函數(shù)組成;
  • 注意力模塊。

論文筆記:基于并行注意力 UNet的裂縫檢測方法
并行注意力機制分為三條線來說明。
第一條線:

  • 輸入:特征圖 F ∈ R H × W × C F \in \mathbb{R}^{H \times W \times C} FRH×W×C;
  • 輸出:特征圖 Q ∈ R H × W × C Q \in \mathbb{R}^{H \times W \times C} QRH×W×C;
  • 處理:
    – 利用最大池化提取全局特征 M ∈ R 1 × 1 × C M \in \mathbb{R}^{1 \times 1 \times C} MR1×1×C
    – 利用下面的公式計算得到權重圖 N ∈ R 1 × 1 × C N \in \mathbb{R}^{1 \times 1 \times C} NR1×1×C,第 i i i通道的權重值 e i e_i ei?為:
    e i = σ ( ∑ j = 1 k w i j z i j ) , z i j ∈ Ω i k e_{i}=\sigma\left(\sum_{j=1}^{k} w_{i}^{j} z_{i}^{j}\right), z_{i}^{j} \in \Omega_{i}^{k} ei?=σ(j=1k?wij?zij?),zij?Ωik?
    其中 w i j w_{i}^{j} wij?表示第 i i i個通道的第 j ∈ [ 1 , k ] j \in [1, k] j[1,k]個權重參數(shù), Ω i k \Omega_{i}^{k} Ωik?表示第 i i i個通道的 k k k個相鄰通道全局特征的集合;【這個公式有兩個問題:(1) w i j w_{i}^{j} wij?是通過學習得到的嗎?(2) z i j ∈ Ω i k z_{i}^{j} \in \Omega_{i}^{k} zij?Ωik?是從 Ω i k \Omega_{i}^{k} Ωik?中任取一個,還是遍歷所有特征點,由于作者沒有提供源代碼,我們只能猜,如果是遍歷,我覺得這個公式還應該有一層循環(huán)才對。

第二條線:

  • 輸入:特征圖 F ∈ R H × W × C F \in \mathbb{R}^{H \times W \times C} FRH×W×C;
  • 輸出:特征圖 P ∈ R H × W × C P \in \mathbb{R}^{H \times W \times C} PRH×W×C;
  • 處理:
    – 利用最大池化得到 F m a x s ∈ R H × W × 1 F_{\mathrm{max}}^s \in \mathbb{R}^{H \times W \times 1} Fmaxs?RH×W×1;
    – 利用平均池化得到 F a v g s ∈ R H × W × 1 F_{\mathrm{avg}}^s \in \mathbb{R}^{H \times W \times 1} Favgs?RH×W×1;
    – 權重圖 H H H:將這2個單通道的特征圖結合,生成一個權重圖【具體怎么做的沒說?

第三條線:

  • 輸入:特征圖 P ∈ R H × W × C P \in \mathbb{R}^{H \times W \times C} PRH×W×C和特征圖 Q ∈ R H × W × C Q \in \mathbb{R}^{H \times W \times C} QRH×W×C;
  • 輸出:特征圖 G ∈ R H × W × C G \in \mathbb{R}^{H \times W \times C} GRH×W×C;
  • 處理:融合。

3 訓練過程(我的理解)

  • 通過軟件對原圖進行標注,得到帶裂縫標注的數(shù)據作為訓練集【這個過程實際上比較難理解,這個標注過程是手動還是自動,如果是手動就很好理解,如果是自動就比較難理解了】;
    論文筆記:基于并行注意力 UNet的裂縫檢測方法

  • 訓練網絡,像素級二分類問題,利用二值交叉熵損失函數(shù)
    loss ? = ? ∑ i = 1 n ( y i log ? y ^ i + ( 1 ? y ) log ? ( 1 ? y ^ i ) ) \operatorname{loss}=-\sum_{i=1}^{n}\left(y_{i} \log \hat{y}_{i}+(1-y) \log \left(1-\hat{y}_{i}\right)\right) loss=?i=1n?(yi?logy^?i?+(1?y)log(1?y^?i?))
    其中, y i y_i yi? 是像素點 i i i 在標注數(shù)據中的像素值, y ^ i \hat{y}_i y^?i? 是像素點 i i i在預測結果 Y ^ \hat{Y} Y^ 中的像素值,預測結果 Y ^ \hat{Y} Y^是通過原始圖像 X X X經過先編碼后解碼得到的。文章來源地址http://www.zghlxwxcb.cn/news/detail-422899.html

到了這里,關于論文筆記:基于并行注意力 UNet的裂縫檢測方法的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!

本文來自互聯(lián)網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • (論文加源碼)基于deap數(shù)據集的transformer結合注意力機制腦電情緒識別

    (論文加源碼)基于deap數(shù)據集的transformer結合注意力機制腦電情緒識別

    本篇論文是2021年新發(fā)表的一篇論文。也是目前有源碼的論文中唯一一篇使用transformer模型和注意力機制的論文源碼(pytorch和tensorflow版本均有) 論文及源碼見個人主頁: https://download.csdn.net/download/qq_45874683/87658878 (論文加源碼)基于deap數(shù)據集的transformer結合注意力機制腦電情

    2024年02月12日
    瀏覽(18)
  • 【圖-注意力筆記,篇章2】Graphormer 和 GraphFormers論文筆記之兩篇經典Graph Transformer來入門

    【圖-注意力筆記,篇章2】Graphormer 和 GraphFormers論文筆記之兩篇經典Graph Transformer來入門

    說明: 本文僅供學習,未經同意請勿轉載 筆記時間:2022年08月 博客公開時間:2023年3月2日 前面我們大致的了解了Graph Transformer是什么,以及它與GNN、Transformer的差別,關聯(lián)。如果對這方面不是很熟悉的朋友可以看一下【圖-注意力筆記,篇章1】一份PPT帶你快速了解Graph Trans

    2023年04月25日
    瀏覽(21)
  • 【YOLOv8改進】MCA:用于圖像識別的深度卷積神經網絡中的多維協(xié)作注意力 (論文筆記+引入代碼)

    【YOLOv8改進】MCA:用于圖像識別的深度卷積神經網絡中的多維協(xié)作注意力 (論文筆記+引入代碼)

    先前的大量研究表明,注意力機制在提高深度卷積神經網絡(CNN)的性能方面具有巨大潛力。然而,大多數(shù)現(xiàn)有方法要么忽略通道和空間維度的建模注意力,要么引入更高的模型復雜性和更重的計算負擔。為了緩解這種困境,在本文中,我們提出了一種輕量級且高效的多維協(xié)

    2024年03月18日
    瀏覽(78)
  • 【動手深度學習-筆記】注意力機制(四)自注意力、交叉注意力和位置編碼

    【動手深度學習-筆記】注意力機制(四)自注意力、交叉注意力和位置編碼

    緊接上回:【動手深度學習-筆記】注意力機制(三)多頭注意力 在注意力機制下,我們將詞元序列輸入注意力匯聚中,以便同一組詞元同時充當查詢、鍵和值。 具體來說,每個查詢都會關注所有的鍵-值對并生成一個注意力輸出。 像這樣的,查詢、鍵和值來自同一組輸入的

    2024年01月16日
    瀏覽(76)
  • 論文中常用的注意力模塊合集(上)

    論文中常用的注意力模塊合集(上)

    在深度卷積神經網絡中,通過構建一系列的卷積層、非線性層和下采樣層使得網絡能夠從全局感受野上提取圖像特征來描述圖像,但歸根結底只是建模了圖像的空間特征信息而沒有建模通道之間的特征信息,整個特征圖的各區(qū)域均被平等對待。 在一些復雜度較高的背景中,容

    2024年02月16日
    瀏覽(20)
  • 深度學習|論文中常用的注意力模塊合集(下)

    深度學習|論文中常用的注意力模塊合集(下)

    注意力機制可以增加少量參數(shù)的情況下來提升計算精度和模型性能,在論文中常用的注意力模塊合集(上)中介紹了三種注意力機制,它們分別是CA、CBAM和SE,均在目標檢測和語義分割領域內能夠提升模型的性能,廢話不多說,直接開始講解剩下的論文中常用的注意力模型。 1、

    2024年02月03日
    瀏覽(22)
  • 【YOLOv8改進】 YOLOv8 更換骨干網絡之GhostNetV2 長距離注意力機制增強廉價操作,構建更強端側輕量型骨干 (論文筆記+引入代碼)

    【YOLOv8改進】 YOLOv8 更換骨干網絡之GhostNetV2 長距離注意力機制增強廉價操作,構建更強端側輕量型骨干 (論文筆記+引入代碼)

    輕量級卷積神經網絡(CNNs)專為移動設備上的應用而設計,具有更快的推理速度。卷積操作只能捕獲窗口區(qū)域內的局部信息,這限制了性能的進一步提升。將自注意力引入到卷積中可以很好地捕獲全局信息,但這將大大增加實際速度的負擔。在本文中,我們提出了一種硬件友

    2024年03月23日
    瀏覽(25)
  • 深度學習筆記之Seq2seq(二)基于Seq2seq注意力機制的動機

    深度學習筆記之Seq2seq(二)基于Seq2seq注意力機制的動機

    上一節(jié)介紹了 Seq2seq text{Seq2seq} Seq2seq 網絡常用的基本結構以及在 機器翻譯 任務中,關于 目標函數(shù) 與 預測概率 的描述。本節(jié)依然以 機器翻譯 任務為例,對 Seq2seq text{Seq2seq} Seq2seq 中的 注意力機制 ( Attention ) (text{Attention}) ( Attention ) 進行描述。 關于 機器翻譯 任務的 Seq2

    2024年02月09日
    瀏覽(22)
  • [自注意力神經網絡]Segment Anything(SAM)論文閱讀

    [自注意力神經網絡]Segment Anything(SAM)論文閱讀

    論文地址 https://arxiv.org/abs/2304.02643 源碼地址 https://github.com/facebookresearch/segment-anything 強烈建議大家試試Demo,效果真的很好:https://segment-anything.com/ ? ? ? ? 本文建立了一個基礎圖像分割模型,并將其在一個巨大的數(shù)據集上進行訓練,目的是解決一系列下游任務。本文的關鍵

    2023年04月23日
    瀏覽(26)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包