国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【深度學(xué)習(xí)】--圖像處理中的注意力機(jī)制

這篇具有很好參考價(jià)值的文章主要介紹了【深度學(xué)習(xí)】--圖像處理中的注意力機(jī)制。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。


前言

注意力機(jī)制是一個(gè)非常有效的trick,注意力機(jī)制的實(shí)現(xiàn)方式有許多??梢栽谥W(wǎng)上搜索一下yolov下的目標(biāo)監(jiān)測(cè)的碩士論文,沒有一篇不提到注意力機(jī)制的迭代修改的,所以很有必要學(xué)一下.
最后給出了一個(gè)例子。

圖像超分辨中注意力機(jī)制,yolov,圖像識(shí)別,深度學(xué)習(xí),深度學(xué)習(xí),圖像處理,人工智能
注意力機(jī)制的本質(zhì):就是尋址過程!
圖像超分辨中注意力機(jī)制,yolov,圖像識(shí)別,深度學(xué)習(xí),深度學(xué)習(xí),圖像處理,人工智能
幾種典型的注意力機(jī)制:
hard/soft/local attention
左側(cè)是hard-attention,很極端只覺得某一步時(shí)最重要的。要么時(shí)0,要么是1, 太專一
右側(cè)是soft-attention,對(duì)整個(gè)encode的結(jié)果都覺分配了權(quán)重。太泛濫,有些地方并不合理
圖像超分辨中注意力機(jī)制,yolov,圖像識(shí)別,深度學(xué)習(xí),深度學(xué)習(xí),圖像處理,人工智能
比如:
圖像超分辨中注意力機(jī)制,yolov,圖像識(shí)別,深度學(xué)習(xí),深度學(xué)習(xí),圖像處理,人工智能
圖像超分辨中注意力機(jī)制,yolov,圖像識(shí)別,深度學(xué)習(xí),深度學(xué)習(xí),圖像處理,人工智能
local attention:是把兩種attention做了一個(gè)折中,

圖像超分辨中注意力機(jī)制,yolov,圖像識(shí)別,深度學(xué)習(xí),深度學(xué)習(xí),圖像處理,人工智能

自注意力機(jī)制:

圖像超分辨中注意力機(jī)制,yolov,圖像識(shí)別,深度學(xué)習(xí),深度學(xué)習(xí),圖像處理,人工智能

圖像超分辨中注意力機(jī)制,yolov,圖像識(shí)別,深度學(xué)習(xí),深度學(xué)習(xí),圖像處理,人工智能
attention機(jī)制要把postional encoding環(huán)節(jié),是要把位置信息注入進(jìn)來(lái),因?yàn)樗遣⑿胁僮鞯?,不像RNN,只能處理完前一步,才能處理后一步,是自帶位置信息的,但這樣也注定了RNN很慢。
圖像超分辨中注意力機(jī)制,yolov,圖像識(shí)別,深度學(xué)習(xí),深度學(xué)習(xí),圖像處理,人工智能
圖像超分辨中注意力機(jī)制,yolov,圖像識(shí)別,深度學(xué)習(xí),深度學(xué)習(xí),圖像處理,人工智能

注意力機(jī)制

注意力機(jī)制是深度學(xué)習(xí)常用的一個(gè)小技巧,它有多種多樣的實(shí)現(xiàn)形式,每一種注意力機(jī)制的實(shí)現(xiàn)的核心都是類似的,核心重點(diǎn)就是讓網(wǎng)絡(luò)關(guān)注到它更需要關(guān)注的地方。
當(dāng)使用卷積神經(jīng)網(wǎng)絡(luò)去處理圖片的時(shí)候,我們會(huì)更希望卷積神經(jīng)網(wǎng)絡(luò)去注意應(yīng)該注意的地方,而不是什么都關(guān)注,因此,如何讓卷積神經(jīng)網(wǎng)絡(luò)去自適應(yīng)的注意重要的物體變得極為重要。

因此一句話總結(jié):注意力機(jī)制就是實(shí)現(xiàn)網(wǎng)絡(luò)自適應(yīng)注意的一個(gè)方式。
注意力機(jī)制分為三類:通道注意力機(jī)制,空間注意力機(jī)制,以及二者的結(jié)合。
圖像超分辨中注意力機(jī)制,yolov,圖像識(shí)別,深度學(xué)習(xí),深度學(xué)習(xí),圖像處理,人工智能

注意力機(jī)制的實(shí)現(xiàn)方式

在深度學(xué)習(xí)中,常見的注意力機(jī)制的實(shí)現(xiàn)方式有SENet,CBAM,ECA等等。

SENet的實(shí)現(xiàn)

SENet是通道注意力機(jī)制,它是最后一屆ImageNet競(jìng)賽的冠軍。對(duì)于SENet而言,其重點(diǎn)是獲得輸入進(jìn)來(lái)的特征層,每一個(gè)通道的權(quán)值。利用SENet,我們可以讓網(wǎng)絡(luò)關(guān)注它最需要關(guān)注的通道。
實(shí)現(xiàn)步驟:
1、對(duì)輸入進(jìn)來(lái)的特征層進(jìn)行全局平均池化。
2、然后進(jìn)行兩次全連接,第一次全連接神經(jīng)元個(gè)數(shù)較少,第二次全連接神經(jīng)元個(gè)數(shù)和輸入特征層相同。
3、在完成兩次全連接后,我們?cè)偃∫淮蜸igmoid將值固定到0-1之間,此時(shí)我們獲得了輸入特征層每一個(gè)通道的權(quán)值(0-1之間)。
4、在獲得這個(gè)權(quán)值后,我們將這個(gè)權(quán)值乘上原輸入特征層即可。
圖像超分辨中注意力機(jī)制,yolov,圖像識(shí)別,深度學(xué)習(xí),深度學(xué)習(xí),圖像處理,人工智能
實(shí)現(xiàn)代碼:

import torch
import torch.nn as nn
import math

class se_block(nn.Module):
    def __init__(self, channel, ratio=16):
        super(se_block, self).__init__()
        self.avg_pool = nn.AdaptiveAvgPool2d(1)
        self.fc = nn.Sequential(
                nn.Linear(channel, channel // ratio, bias=False),
                nn.ReLU(inplace=True),
                nn.Linear(channel // ratio, channel, bias=False),
                nn.Sigmoid()
        )

    def forward(self, x):
        b, c, _, _ = x.size()
        y = self.avg_pool(x).view(b, c)
        y = self.fc(y).view(b, c, 1, 1)
        return x * y

追加一個(gè)使用案例

if __name__ == '__main__':
    #inut: 構(gòu)建數(shù)據(jù) bz = 8  c= 64 w =227 h=227
    data = np.random.randn(8,64,227,227)
    data = torch.from_numpy(data)
    data = data.to(torch.float32)
    seblock = se_block(64,2)
    res = seblock(data)
    print(res)
    # output 輸出:torch.Size([8, 64, 227, 227])

輸入還是等于輸出,可是卻是已經(jīng)獲取和注意力的特征.正是因?yàn)檫@個(gè)特點(diǎn),所以注意力機(jī)制可以任意插拔。 輸入等于輸出,可以侵入搭建block的任意模塊!

CBAM的實(shí)現(xiàn)

CBAM將通道注意力機(jī)制和空間注意力機(jī)制進(jìn)行一個(gè)結(jié)合,相比于SENet只關(guān)注通道的注意力機(jī)制可以取得更好的效果。其實(shí)現(xiàn)示意圖如下所示,CBAM會(huì)對(duì)輸入進(jìn)來(lái)的特征層,分別進(jìn)行通道注意力機(jī)制的處理和空間注意力機(jī)制的處理。
圖像超分辨中注意力機(jī)制,yolov,圖像識(shí)別,深度學(xué)習(xí),深度學(xué)習(xí),圖像處理,人工智能
通道注意力機(jī)制和空間注意力機(jī)制的具體實(shí)現(xiàn)方式如下圖:
圖像的上半部分為通道注意力機(jī)制,通道注意力機(jī)制的實(shí)現(xiàn)可以分為兩個(gè)部分,我們會(huì)對(duì)輸入進(jìn)來(lái)的單個(gè)特征層,分別進(jìn)行全局平均池化和全局最大池化。之后對(duì)平均池化和最大池化的結(jié)果,利用共享的全連接層進(jìn)行處理,我們會(huì)對(duì)處理后的兩個(gè)結(jié)果進(jìn)行相加,然后取一個(gè)sigmoid,此時(shí)我們獲得了輸入特征層每一個(gè)通道的權(quán)值(0-1之間)。在獲得這個(gè)權(quán)值后,我們將這個(gè)權(quán)值乘上原輸入特征層即可。

圖像的下半部分為空間注意力機(jī)制,我們會(huì)對(duì)輸入進(jìn)來(lái)的特征層,在每一個(gè)特征點(diǎn)的通道上取最大值和平均值。之后將這兩個(gè)結(jié)果進(jìn)行一個(gè)堆疊,利用一次通道數(shù)為1的卷積調(diào)整通道數(shù),然后取一個(gè)sigmoid,此時(shí)我們獲得了輸入特征層每一個(gè)特征點(diǎn)的權(quán)值(0-1之間)。在獲得這個(gè)權(quán)值后,我們將這個(gè)權(quán)值乘上原輸入特征層即可。
圖像超分辨中注意力機(jī)制,yolov,圖像識(shí)別,深度學(xué)習(xí),深度學(xué)習(xí),圖像處理,人工智能

class ChannelAttention(nn.Module):
    def __init__(self, in_planes, ratio=8):
        super(ChannelAttention, self).__init__()
        self.avg_pool = nn.AdaptiveAvgPool2d(1)
        self.max_pool = nn.AdaptiveMaxPool2d(1)

        # 利用1x1卷積代替全連接
        self.fc1   = nn.Conv2d(in_planes, in_planes // ratio, 1, bias=False)
        self.relu1 = nn.ReLU()
        self.fc2   = nn.Conv2d(in_planes // ratio, in_planes, 1, bias=False)

        self.sigmoid = nn.Sigmoid()

    def forward(self, x):
        avg_out = self.fc2(self.relu1(self.fc1(self.avg_pool(x))))
        max_out = self.fc2(self.relu1(self.fc1(self.max_pool(x))))
        out = avg_out + max_out
        return self.sigmoid(out)

class SpatialAttention(nn.Module):
    def __init__(self, kernel_size=7):
        super(SpatialAttention, self).__init__()

        assert kernel_size in (3, 7), 'kernel size must be 3 or 7'
        padding = 3 if kernel_size == 7 else 1
        self.conv1 = nn.Conv2d(2, 1, kernel_size, padding=padding, bias=False)
        self.sigmoid = nn.Sigmoid()

    def forward(self, x):
        avg_out = torch.mean(x, dim=1, keepdim=True)
        max_out, _ = torch.max(x, dim=1, keepdim=True)
        x = torch.cat([avg_out, max_out], dim=1)
        x = self.conv1(x)
        return self.sigmoid(x)

class cbam_block(nn.Module):
    def __init__(self, channel, ratio=8, kernel_size=7):
        super(cbam_block, self).__init__()
        self.channelattention = ChannelAttention(channel, ratio=ratio)
        self.spatialattention = SpatialAttention(kernel_size=kernel_size)

    def forward(self, x):
        x = x * self.channelattention(x)
        x = x * self.spatialattention(x)
        return x

ECA的實(shí)現(xiàn)

ECANet是也是通道注意力機(jī)制的一種實(shí)現(xiàn)形式。ECANet可以看作是SENet的改進(jìn)版。
ECANet的作者認(rèn)為SENet對(duì)通道注意力機(jī)制的預(yù)測(cè)帶來(lái)了副作用,捕獲所有通道的依賴關(guān)系是低效并且是不必要的,并且認(rèn)為卷積具有良好的跨通道信息獲取能力。

ECA模塊的思想是非常簡(jiǎn)單的,它去除了原來(lái)SE模塊中的全連接層,直接在全局平均池化之后的特征上通過一個(gè)1D卷積進(jìn)行學(xué)習(xí)。

既然使用到了1D卷積,那么1D卷積的卷積核大小的選擇就變得非常重要了,了解過卷積原理的同學(xué)很快就可以明白,1D卷積的卷積核大小會(huì)影響注意力機(jī)制每個(gè)權(quán)重的計(jì)算要考慮的通道數(shù)量。用更專業(yè)的名詞就是跨通道交互的覆蓋率。

如下圖所示,左圖是常規(guī)的SE模塊,右圖是ECA模塊。ECA模塊用1D卷積替換兩次全連接。
圖像超分辨中注意力機(jī)制,yolov,圖像識(shí)別,深度學(xué)習(xí),深度學(xué)習(xí),圖像處理,人工智能

class eca_block(nn.Module):
    def __init__(self, channel, b=1, gamma=2):
        super(eca_block, self).__init__()
        kernel_size = int(abs((math.log(channel, 2) + b) / gamma))
        kernel_size = kernel_size if kernel_size % 2 else kernel_size + 1
        
        self.avg_pool = nn.AdaptiveAvgPool2d(1)
        self.conv = nn.Conv1d(1, 1, kernel_size=kernel_size, padding=(kernel_size - 1) // 2, bias=False) 
        self.sigmoid = nn.Sigmoid()

    def forward(self, x):
        y = self.avg_pool(x)
        y = self.conv(y.squeeze(-1).transpose(-1, -2)).transpose(-1, -2).unsqueeze(-1)
        y = self.sigmoid(y)
        return x * y.expand_as(x)


if __name__ == '__main__':
    data = np.random.randn(8,64,227,227)
    data = torch.from_numpy(data)
    data = data.to(torch.float32)
    seblock = eca_block(64,2)
    res = seblock(data)
    print(res.shape)

即插即用真是好使

注意力機(jī)制的應(yīng)用

注意力機(jī)制是一個(gè)即插即用的模塊,理論上可以放在任何一個(gè)特征層后面,可以放在主干網(wǎng)絡(luò),也可以放在加強(qiáng)特征提取網(wǎng)絡(luò)。

由于放置在主干會(huì)導(dǎo)致網(wǎng)絡(luò)的預(yù)訓(xùn)練權(quán)重?zé)o法使用,本文以YoloV4-tiny為例,將注意力機(jī)制應(yīng)用加強(qiáng)特征提取網(wǎng)絡(luò)上。

如下圖所示,我們?cè)谥鞲删W(wǎng)絡(luò)提取出來(lái)的兩個(gè)有效特征層上增加了注意力機(jī)制,同時(shí)對(duì)上采樣后的結(jié)果增加了注意力機(jī)制。
圖像超分辨中注意力機(jī)制,yolov,圖像識(shí)別,深度學(xué)習(xí),深度學(xué)習(xí),圖像處理,人工智能
實(shí)現(xiàn)代碼如下:文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-780267.html

attention_block = [se_block, cbam_block, eca_block]

#---------------------------------------------------#
#   特征層->最后的輸出
#---------------------------------------------------#
class YoloBody(nn.Module):
    def __init__(self, anchors_mask, num_classes, phi=0):
        super(YoloBody, self).__init__()
        self.phi            = phi
        self.backbone       = darknet53_tiny(None)

        self.conv_for_P5    = BasicConv(512,256,1)
        self.yolo_headP5    = yolo_head([512, len(anchors_mask[0]) * (5 + num_classes)],256)

        self.upsample       = Upsample(256,128)
        self.yolo_headP4    = yolo_head([256, len(anchors_mask[1]) * (5 + num_classes)],384)

        if 1 <= self.phi and self.phi <= 3:
            self.feat1_att      = attention_block[self.phi - 1](256)
            self.feat2_att      = attention_block[self.phi - 1](512)
            self.upsample_att   = attention_block[self.phi - 1](128)

    def forward(self, x):
        #---------------------------------------------------#
        #   生成CSPdarknet53_tiny的主干模型
        #   feat1的shape為26,26,256
        #   feat2的shape為13,13,512
        #---------------------------------------------------#
        feat1, feat2 = self.backbone(x)
        if 1 <= self.phi and self.phi <= 3:
            feat1 = self.feat1_att(feat1)
            feat2 = self.feat2_att(feat2)

        # 13,13,512 -> 13,13,256
        P5 = self.conv_for_P5(feat2)
        # 13,13,256 -> 13,13,512 -> 13,13,255
        out0 = self.yolo_headP5(P5) 

        # 13,13,256 -> 13,13,128 -> 26,26,128
        P5_Upsample = self.upsample(P5)
        # 26,26,256 + 26,26,128 -> 26,26,384
        if 1 <= self.phi and self.phi <= 3:
            P5_Upsample = self.upsample_att(P5_Upsample)
        P4 = torch.cat([P5_Upsample,feat1],axis=1)

        # 26,26,384 -> 26,26,256 -> 26,26,255
        out1 = self.yolo_headP4(P4)
        
        return out0, out1

到了這里,關(guān)于【深度學(xué)習(xí)】--圖像處理中的注意力機(jī)制的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 計(jì)算機(jī)視覺學(xué)習(xí)筆記(圖像的灰度與灰度級(jí) 圖像的深度 圖像噪聲 圖像處理)

    如果把白色和黑色之間按對(duì)數(shù)關(guān)系分為若干等級(jí),稱為灰度,灰度分為256階,0為黑色,灰度就是沒有色彩,RGB色彩分量全部相等(150,150,150)就代表灰度為150. 一幅圖像中不同位置的亮度是不一樣的,可用f(x,y)來(lái)表示(x,y)上的亮度。由于光是一種能量形式,因此亮度是非負(fù)

    2024年02月01日
    瀏覽(96)
  • 一文整理深度學(xué)習(xí)【醫(yī)學(xué)圖像處理領(lǐng)域期刊和會(huì)議】

    參考地址:醫(yī)學(xué)圖像處理領(lǐng)域期刊和會(huì)議 參考地址:中國(guó)計(jì)算機(jī)學(xué)會(huì)推薦國(guó)際學(xué)術(shù)會(huì)議和期刊目錄 期刊名 鏈接 TMI IEEE Transactions on Medical Imaging MedIA

    2023年04月23日
    瀏覽(21)
  • 九章算法: 深度學(xué)習(xí)、強(qiáng)化學(xué)習(xí)、機(jī)器學(xué)習(xí)、推薦系統(tǒng)、圖像處理、文本處理、序列處理、搜索引擎、數(shù)據(jù)分析等

    作者:禪與計(jì)算機(jī)程序設(shè)計(jì)藝術(shù) 隨著計(jì)算機(jī)技術(shù)的飛速發(fā)展,人工智能和機(jī)器學(xué)習(xí)領(lǐng)域迎來(lái)蓬勃發(fā)展的時(shí)代,從“知識(shí)圖譜”到“零售系統(tǒng)自動(dòng)化”,人工智能技術(shù)正在改變著社會(huì)生活的方方面面。傳統(tǒng)的人工智能技術(shù)都依賴于硬件上的復(fù)雜計(jì)算能力,如神經(jīng)網(wǎng)絡(luò)、決策樹等

    2024年02月08日
    瀏覽(20)
  • OpenCV實(shí)戰(zhàn):從圖像處理到深度學(xué)習(xí)的全面指南

    OpenCV實(shí)戰(zhàn):從圖像處理到深度學(xué)習(xí)的全面指南

    本文深入淺出地探討了OpenCV庫(kù)在圖像處理和深度學(xué)習(xí)中的應(yīng)用。從基本概念和操作,到復(fù)雜的圖像變換和深度學(xué)習(xí)模型的使用,文章以詳盡的代碼和解釋,帶領(lǐng)大家步入OpenCV的實(shí)戰(zhàn)世界。 OpenCV(Open Source Computer Vision Library)是一個(gè)開源的計(jì)算機(jī)視覺和機(jī)器學(xué)習(xí)軟件庫(kù)。它由一

    2024年02月14日
    瀏覽(17)
  • 12大類150個(gè)圖像處理和深度學(xué)習(xí)開源數(shù)據(jù)集

    12大類150個(gè)圖像處理和深度學(xué)習(xí)開源數(shù)據(jù)集

    本文整理了150 個(gè)深度學(xué)習(xí)和圖像處理領(lǐng)域的開源數(shù)據(jù)集,包括:目標(biāo)檢測(cè)、人臉識(shí)別、文本識(shí)別、圖像分類、缺陷檢測(cè)、醫(yī)學(xué)影像、圖像分割、圖像去霧、關(guān)鍵點(diǎn)檢測(cè)、動(dòng)作識(shí)別、姿態(tài)估計(jì)、自動(dòng)駕駛和 RGBT 等12個(gè)方向。 1. T-LESS數(shù)據(jù)集 類型:目標(biāo)檢測(cè) 數(shù)量:39000 數(shù)據(jù)集下載

    2024年04月22日
    瀏覽(34)
  • 深度學(xué)習(xí)圖像處理基礎(chǔ)工具——opencv 實(shí)戰(zhàn)信用卡數(shù)字識(shí)別

    深度學(xué)習(xí)圖像處理基礎(chǔ)工具——opencv 實(shí)戰(zhàn)信用卡數(shù)字識(shí)別

    任務(wù) 信用卡數(shù)字識(shí)別 穿插之前學(xué)的知識(shí)點(diǎn)? 形態(tài)學(xué)操作 模板匹配 等 總體流程與方法 1.有一個(gè)模板 2 用輪廓檢測(cè)把模板中數(shù)字拿出來(lái) 外接矩形(模板和輸入圖像的大小要一致 )3 一系列預(yù)處理操作 問題的解決思路 1.分析準(zhǔn)備:準(zhǔn)備模板,讀取文件——轉(zhuǎn)化為灰度圖——轉(zhuǎn)化

    2024年04月15日
    瀏覽(95)
  • 深度學(xué)習(xí)中基于python的預(yù)處理和圖像擴(kuò)增方法

    容易出現(xiàn)的報(bào)錯(cuò): 錯(cuò)誤原因通常為保存的路徑不正確: 應(yīng)改為: 即第一個(gè)參數(shù)應(yīng)該寫到文件的名稱,而不能只寫到文件夾就停止。 灰度圖片和黑白圖片有些相似,但并不完全相同。 灰度圖片是指每個(gè)像素點(diǎn)的顏色由灰度值來(lái)表示,通常使用8位無(wú)符號(hào)整數(shù)(0-255)表示?;?/p>

    2024年02月08日
    瀏覽(32)
  • BIT 變化檢測(cè)模型復(fù)現(xiàn) 深度學(xué)習(xí)學(xué)習(xí)筆記 基于transformer結(jié)構(gòu)的圖像處理模型

    BIT 變化檢測(cè)模型復(fù)現(xiàn) 深度學(xué)習(xí)學(xué)習(xí)筆記 基于transformer結(jié)構(gòu)的圖像處理模型

    BIT 是用 transformer 結(jié)構(gòu)進(jìn)行變化檢測(cè)的一個(gè)孿生網(wǎng)絡(luò),它的 backbone 用的是 Resnet 結(jié)構(gòu),具體結(jié)構(gòu)分析可以參考這個(gè)鏈接的作者寫的,非常清楚, http://t.csdn.cn/rA9sH。 下面就是來(lái)講我自己的實(shí)現(xiàn)過程,比較簡(jiǎn)單。 首先,在官網(wǎng)找到相應(yīng)的代碼,下載解壓到自己的本地。github上面的

    2024年02月10日
    瀏覽(62)
  • 圖像處理及深度學(xué)習(xí)開源數(shù)據(jù)集大全(四萬(wàn)字嘔心瀝血整理)

    本文整理了150 余個(gè)深度學(xué)習(xí)和圖像處理領(lǐng)域的開源數(shù)據(jù)集,包括:目標(biāo)檢測(cè)、人臉識(shí)別、文本識(shí)別、圖像分類、缺陷檢測(cè)、醫(yī)學(xué)影像、圖像分割、圖像去霧、關(guān)鍵點(diǎn)檢測(cè)、動(dòng)作識(shí)別、姿態(tài)估計(jì)、自動(dòng)駕駛、RGBT共13個(gè)方向。 T-LESS數(shù)據(jù)集 類型:目標(biāo)檢測(cè) 數(shù)量:39000 數(shù)據(jù)集下載地

    2024年02月03日
    瀏覽(29)
  • 圖像處理之《尋找和隱藏:通過深度強(qiáng)化學(xué)習(xí)的對(duì)抗隱寫術(shù)》論文閱讀

    圖像處理之《尋找和隱藏:通過深度強(qiáng)化學(xué)習(xí)的對(duì)抗隱寫術(shù)》論文閱讀

    一、文章摘要 圖像隱寫術(shù)的目的是將一個(gè)完整大小的圖像(稱為秘密)隱藏到另一個(gè)圖像(稱為封面)中。以往的圖像隱寫算法只能在一個(gè)封面中隱藏一個(gè)秘密。在這篇論文中, 我們提出了一個(gè)自適應(yīng)局部圖像隱寫(AdaSteg)系統(tǒng),允許縮放和位置自適應(yīng)圖像隱寫 。該系統(tǒng)通過在局部

    2024年03月14日
    瀏覽(29)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包