国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

?目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合?SOCA(單幅圖像超分辨率) CVPR19 單幅圖像超分辨率來了?。?!

這篇具有很好參考價(jià)值的文章主要介紹了?目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合?SOCA(單幅圖像超分辨率) CVPR19 單幅圖像超分辨率來了?。?!。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

?目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合?SOCA(單幅圖像超分辨率)
CVPR19 單幅圖像超分辨率來了?。?!

>>>深度學(xué)習(xí)Tricks,第一時(shí)間送達(dá)<<<

目錄

CVPR19 單幅圖像超分辨率來了?。。?/h2>

(一)前沿介紹

論文題目:Second-order Attention Network for Single Image Super-Resolution

論文地址:CVPR19 超分辨率

代碼地址:https://github.com/daitao/SAN

1.SOCA moudle結(jié)構(gòu)圖

2.相關(guān)實(shí)驗(yàn)結(jié)果

(二)YOLOv5/YOLOv7改進(jìn)之結(jié)合?SOCA

1.配置common.py文件

2.配置yolo.py文件

3.配置yolov5/yolov7_SOCA moudle.yaml文件

>>>一起交流!互相學(xué)習(xí)!共同進(jìn)步!<<<


CVPR19 單幅圖像超分辨率來了!??!

(一)前沿介紹

論文題目:Second-order Attention Network for Single Image Super-Resolution

論文地址:CVPR19 超分辨率

代碼地址:https://github.com/daitao/SAN

?目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合?SOCA(單幅圖像超分辨率)
CVPR19 單幅圖像超分辨率來了?。?!?

基于??CNN的超分辨方法雖然取得了最好的結(jié)果,但此類方法關(guān)注更寬或更深的結(jié)構(gòu)設(shè)計(jì),忽略了中間層特征之間的關(guān)系。基于此,本文提出了二階注意力機(jī)制(SOCA)更好的學(xué)習(xí)特征之間的聯(lián)系,此模塊通過利用二階特征的分布自適應(yīng)的學(xué)習(xí)特征的內(nèi)部依賴關(guān)系,SOCA的機(jī)制是網(wǎng)絡(luò)能夠?qū)W⒂诟幸娴男畔⑶夷軌蛱岣吲袆e學(xué)習(xí)的能力。此外,本文提出了一種非局部加強(qiáng)殘差組結(jié)構(gòu)能進(jìn)一步結(jié)合非局部操作來提取長程的空間上下文信息。通過堆疊非局部殘差組,本文的方法能夠利用LR圖像的信息且能夠忽略低頻信息。總體上該論文貢獻(xiàn)主要有以下三點(diǎn):

1.提出了用于圖像超分辨的深度二階注意力網(wǎng)絡(luò),

2.提出了二階注意力機(jī)制通過利用高階的特征自適應(yīng)的調(diào)整特征,另外利用了協(xié)方差歸一化的方法來加速網(wǎng)絡(luò)的訓(xùn)練。

3.提出了非局部加強(qiáng)殘差組NLRG結(jié)構(gòu)構(gòu)建網(wǎng)絡(luò),進(jìn)一步結(jié)合非局部操作來提取空間上的上下文信息,并共享殘差結(jié)構(gòu)來學(xué)習(xí)深度特征,另外通過跳躍鏈接來過濾低頻信息且簡化了深層網(wǎng)絡(luò)的訓(xùn)練。

1.SOCA moudle結(jié)構(gòu)圖

?目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合?SOCA(單幅圖像超分辨率)
CVPR19 單幅圖像超分辨率來了?。?!

2.相關(guān)實(shí)驗(yàn)結(jié)果

?目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合?SOCA(單幅圖像超分辨率)
CVPR19 單幅圖像超分辨率來了?。?!

(二)YOLOv5/YOLOv7改進(jìn)之結(jié)合?SOCA

改進(jìn)方法和其他注意力機(jī)制一樣,分三步走:

1.配置common.py文件

#SOCA moudle 單幅圖像超分辨率
class Covpool(Function):
     @staticmethod
     def forward(ctx, input):
         x = input
         batchSize = x.data.shape[0]
         dim = x.data.shape[1]
         h = x.data.shape[2]
         w = x.data.shape[3]
         M = h*w
         x = x.reshape(batchSize,dim,M)
         I_hat = (-1./M/M)*torch.ones(M,M,device = x.device) + (1./M)*torch.eye(M,M,device = x.device)
         I_hat = I_hat.view(1,M,M).repeat(batchSize,1,1).type(x.dtype)
         y = x.bmm(I_hat).bmm(x.transpose(1,2))
         ctx.save_for_backward(input,I_hat)
         return y
     @staticmethod
     def backward(ctx, grad_output):
         input,I_hat = ctx.saved_tensors
         x = input
         batchSize = x.data.shape[0]
         dim = x.data.shape[1]
         h = x.data.shape[2]
         w = x.data.shape[3]
         M = h*w
         x = x.reshape(batchSize,dim,M)
         grad_input = grad_output + grad_output.transpose(1,2)
         grad_input = grad_input.bmm(x).bmm(I_hat)
         grad_input = grad_input.reshape(batchSize,dim,h,w)
         return grad_input

class Sqrtm(Function):
     @staticmethod
     def forward(ctx, input, iterN):
         x = input
         batchSize = x.data.shape[0]
         dim = x.data.shape[1]
         dtype = x.dtype
         I3 = 3.0*torch.eye(dim,dim,device = x.device).view(1, dim, dim).repeat(batchSize,1,1).type(dtype)
         normA = (1.0/3.0)*x.mul(I3).sum(dim=1).sum(dim=1)
         A = x.div(normA.view(batchSize,1,1).expand_as(x))
         Y = torch.zeros(batchSize, iterN, dim, dim, requires_grad = False, device = x.device)
         Z = torch.eye(dim,dim,device = x.device).view(1,dim,dim).repeat(batchSize,iterN,1,1)
         if iterN < 2:
            ZY = 0.5*(I3 - A)
            Y[:,0,:,:] = A.bmm(ZY)
         else:
            ZY = 0.5*(I3 - A)
            Y[:,0,:,:] = A.bmm(ZY)
            Z[:,0,:,:] = ZY
            for i in range(1, iterN-1):
               ZY = 0.5*(I3 - Z[:,i-1,:,:].bmm(Y[:,i-1,:,:]))
               Y[:,i,:,:] = Y[:,i-1,:,:].bmm(ZY)
               Z[:,i,:,:] = ZY.bmm(Z[:,i-1,:,:])
            ZY = 0.5*Y[:,iterN-2,:,:].bmm(I3 - Z[:,iterN-2,:,:].bmm(Y[:,iterN-2,:,:]))
         y = ZY*torch.sqrt(normA).view(batchSize, 1, 1).expand_as(x)
         ctx.save_for_backward(input, A, ZY, normA, Y, Z)
         ctx.iterN = iterN
         return y
     @staticmethod
     def backward(ctx, grad_output):
         input, A, ZY, normA, Y, Z = ctx.saved_tensors
         iterN = ctx.iterN
         x = input
         batchSize = x.data.shape[0]
         dim = x.data.shape[1]
         dtype = x.dtype
         der_postCom = grad_output*torch.sqrt(normA).view(batchSize, 1, 1).expand_as(x)
         der_postComAux = (grad_output*ZY).sum(dim=1).sum(dim=1).div(2*torch.sqrt(normA))
         I3 = 3.0*torch.eye(dim,dim,device = x.device).view(1, dim, dim).repeat(batchSize,1,1).type(dtype)
         if iterN < 2:
            der_NSiter = 0.5*(der_postCom.bmm(I3 - A) - A.bmm(der_sacleTrace))
         else:
            dldY = 0.5*(der_postCom.bmm(I3 - Y[:,iterN-2,:,:].bmm(Z[:,iterN-2,:,:])) -
                          Z[:,iterN-2,:,:].bmm(Y[:,iterN-2,:,:]).bmm(der_postCom))
            dldZ = -0.5*Y[:,iterN-2,:,:].bmm(der_postCom).bmm(Y[:,iterN-2,:,:])
            for i in range(iterN-3, -1, -1):
               YZ = I3 - Y[:,i,:,:].bmm(Z[:,i,:,:])
               ZY = Z[:,i,:,:].bmm(Y[:,i,:,:])
               dldY_ = 0.5*(dldY.bmm(YZ) - 
                         Z[:,i,:,:].bmm(dldZ).bmm(Z[:,i,:,:]) - 
                             ZY.bmm(dldY))
               dldZ_ = 0.5*(YZ.bmm(dldZ) - 
                         Y[:,i,:,:].bmm(dldY).bmm(Y[:,i,:,:]) -
                            dldZ.bmm(ZY))
               dldY = dldY_
               dldZ = dldZ_
            der_NSiter = 0.5*(dldY.bmm(I3 - A) - dldZ - A.bmm(dldY))
         grad_input = der_NSiter.div(normA.view(batchSize,1,1).expand_as(x))
         grad_aux = der_NSiter.mul(x).sum(dim=1).sum(dim=1)
         for i in range(batchSize):
             grad_input[i,:,:] += (der_postComAux[i] \
                                   - grad_aux[i] / (normA[i] * normA[i])) \
                                   *torch.ones(dim,device = x.device).diag()
         return grad_input, None

class Triuvec(Function):
     @staticmethod
     def forward(ctx, input):
         x = input
         batchSize = x.data.shape[0]
         dim = x.data.shape[1]
         dtype = x.dtype
         x = x.reshape(batchSize, dim*dim)
         I = torch.ones(dim,dim).triu().t().reshape(dim*dim)
         index = I.nonzero()
         y = torch.zeros(batchSize,dim*(dim+1)/2,device = x.device)
         for i in range(batchSize):
            y[i, :] = x[i, index].t()
         ctx.save_for_backward(input,index)
         return y
     @staticmethod
     def backward(ctx, grad_output):
         input,index = ctx.saved_tensors
         x = input
         batchSize = x.data.shape[0]
         dim = x.data.shape[1]
         dtype = x.dtype
         grad_input = torch.zeros(batchSize,dim,dim,device = x.device,requires_grad=False)
         grad_input = grad_input.reshape(batchSize,dim*dim)
         for i in range(batchSize):
            grad_input[i,index] = grad_output[i,:].reshape(index.size(),1)
         grad_input = grad_input.reshape(batchSize,dim,dim)
         return grad_input

def CovpoolLayer(var):
    return Covpool.apply(var)

def SqrtmLayer(var, iterN):
    return Sqrtm.apply(var, iterN)

def TriuvecLayer(var):
    return Triuvec.apply(var)


class SOCA(nn.Module):
    def __init__(self, channel, reduction=8):
        super(SOCA, self).__init__()
        self.max_pool = nn.MaxPool2d(kernel_size=2)

        self.conv_du = nn.Sequential(
            nn.Conv2d(channel, channel // reduction, 1, padding=0, bias=True),
            nn.ReLU(inplace=True),
            nn.Conv2d(channel // reduction, channel, 1, padding=0, bias=True),
            nn.Sigmoid()
        )

2.配置yolo.py文件

加入SOCA moudle模塊。

3.配置yolov5/yolov7_SOCA moudle.yaml文件

添加方法靈活多變,Backbone或者Neck都可。示例如下:

# anchors
anchors:
  - [10,13, 16,30, 33,23]  # P3/8
  - [30,61, 62,45, 59,119]  # P4/16
  - [116,90, 156,198, 373,326]  # P5/32

# YOLOv5 backbone
backbone:
  # [from, number, module, args]
  [[-1, 1, Focus, [64, 3]],  # 0-P1/2
   [-1, 1, Conv, [128, 3, 2]],  # 1-P2/4
   [-1, 3, C3, [128]],
   [-1, 1, Conv, [256, 3, 2]],  # 3-P3/8
   [-1, 9, C3, [256]],
   [-1, 1, Conv, [512, 3, 2]],  # 5-P4/16
   [-1, 9, C3, [512]],
   [-1, 1, Conv, [1024, 3, 2]],  # 7-P5/32
   [-1, 1, SPP, [1024, [5, 9, 13]]],
   [-1, 3, C3, [1024, False]],  # 9
  ]

# YOLOv5 head
head:
  [[-1, 1, Conv, [512, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 6], 1, Concat, [1]],  # cat backbone P4
   [-1, 3, C3, [512, False]],  # 13

   [-1, 1, Conv, [256, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 4], 1, Concat, [1]],  # cat backbone P3
   [-1, 3, C3, [256, False]],  # 17 (P3/8-small)

   [-1, 1, Conv, [256, 3, 2]],
   [[-1, 14], 1, Concat, [1]],  # cat head P4
   [-1, 3, C3, [512, False]],  # 20 (P4/16-medium)

   [-1, 1, Conv, [512, 3, 2]],
   [[-1, 10], 1, Concat, [1]],  # cat head P5
   [-1, 3, C3, [1024, False]],  # 23 (P5/32-large)
   [-1, 1, SOCA, [1024]],

   [[17, 20, 24], 1, Detect, [nc, anchors]],  # Detect(P3, P4, P5)
  ]

??PS:來自粉絲小伙伴的實(shí)驗(yàn)對(duì)比圖~??????

①實(shí)驗(yàn)前:

?目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合?SOCA(單幅圖像超分辨率)
CVPR19 單幅圖像超分辨率來了!??!?

?②實(shí)驗(yàn)后:

?目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合?SOCA(單幅圖像超分辨率)
CVPR19 單幅圖像超分辨率來了!?。? referrerpolicy=?文章來源地址http://www.zghlxwxcb.cn/news/detail-422761.html


???????【算法創(chuàng)新&算法訓(xùn)練&論文投稿】相關(guān)鏈接??????


?【YOLO創(chuàng)新算法嘗新系列】?

???美團(tuán)出品 | YOLOv6 v3.0 is Coming(超越Y(jié)OLOv7、v8)

???官方正品 | Ultralytics YOLOv8算法來啦(尖端SOTA模型)

???改進(jìn)YOLOv5/YOLOv7——魔改YOLOv5/YOLOv7提升檢測精度(漲點(diǎn)必備)

————————————??【重磅干貨來襲】??————————————

??一、主干網(wǎng)絡(luò)改進(jìn)(持續(xù)更新中)????

1.目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合ConvNeXt結(jié)構(gòu)(純卷積|超越Swin)

2.目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合MobileOne結(jié)構(gòu)(高性能骨干|僅需1ms)

3.目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合Swin Transformer V2(漲點(diǎn)神器)

4.目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)結(jié)合BotNet(Transformer)

5.目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)之GSConv+Slim Neck(優(yōu)化成本)

6.目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)結(jié)合新神經(jīng)網(wǎng)絡(luò)算子Involution(CVPR 2021)

7.目標(biāo)檢測算法——YOLOv7改進(jìn)|增加小目標(biāo)檢測層

8.目標(biāo)檢測算法——YOLOv5改進(jìn)|增加小目標(biāo)檢測層

?? 持續(xù)更新中……

??二、輕量化網(wǎng)絡(luò)(持續(xù)更新中)????

1.目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合?RepVGG(速度飆升)

2.目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合?PP-LCNet(輕量級(jí)CPU網(wǎng)絡(luò))

3.目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合輕量化網(wǎng)絡(luò)MobileNetV3(降參提速)

4.目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)|結(jié)合輕量型網(wǎng)絡(luò)ShuffleNetV2

5.目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)結(jié)合輕量型Ghost模塊

?? 持續(xù)更新中……

??三、注意力機(jī)制(持續(xù)更新中)????

1.目標(biāo)檢測算法——YOLOv5改進(jìn)之結(jié)合CBAM注意力機(jī)制

2.目標(biāo)檢測算法——YOLOv7改進(jìn)之結(jié)合CBAM注意力機(jī)制

3.目標(biāo)檢測算法——YOLOv5/YOLOv7之結(jié)合CA注意力機(jī)制

4.目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合ECA注意力機(jī)制

5.目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合NAMAttention(提升漲點(diǎn))

6.目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合GAMAttention

7.目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合無參注意力SimAM(漲點(diǎn)神器)

8.目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合Criss-Cross Attention

9.?目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合?SOCA(單幅圖像超分辨率)

?? 持續(xù)更新中……

??四、檢測頭部改進(jìn)(持續(xù)更新中)????

1.魔改YOLOv5/v7高階版(魔法搭配+創(chuàng)新組合)——改進(jìn)之結(jié)合解耦頭Decoupled_Detect

2.目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)結(jié)合漲點(diǎn)Trick之ASFF(自適應(yīng)空間特征融合)

?? 持續(xù)更新中……

??五、空間金字塔池化(持續(xù)更新中)????

1.目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合?ASPP(空洞空間卷積池化金字塔)

2.目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合特征提取網(wǎng)絡(luò)RFBNet(漲點(diǎn)明顯)

?? 持續(xù)更新中……

??六、損失函數(shù)及NMS改進(jìn)(持續(xù)更新中)????

1.目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)|將IOU Loss替換為EIOU Loss

2.目標(biāo)檢測算法——助力漲點(diǎn) | YOLOv5改進(jìn)結(jié)合Alpha-IoU

3.目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合SIoU

4.目標(biāo)檢測算法——YOLOv5將NMS替換為DIoU-NMS

?? 持續(xù)更新中……

??七、其他創(chuàng)新改進(jìn)項(xiàng)目(持續(xù)更新中)????

1.手把手教你搭建屬于自己的PyQt5-YOLOv5目標(biāo)檢測平臺(tái)(保姆級(jí)教程)

2.YOLO算法改進(jìn)之結(jié)合GradCAM可視化熱力圖(附詳細(xì)教程)

3.目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合SPD-Conv(低分辨率圖像和小目標(biāo)漲點(diǎn)明顯)

4.目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)之更換FReLU激活函數(shù)

5.目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合BiFPN

?? 持續(xù)更新中……

??八、算法訓(xùn)練相關(guān)項(xiàng)目(持續(xù)更新中)????

1.目標(biāo)檢測算法——YOLOv7訓(xùn)練自己的數(shù)據(jù)集(保姆級(jí)教程)

2.人工智能前沿——玩轉(zhuǎn)OpenAI語音機(jī)器人ChatGPT(中文版)

3.深度學(xué)習(xí)之語義分割算法(入門學(xué)習(xí))

4.知識(shí)經(jīng)驗(yàn)分享——YOLOv5-6.0訓(xùn)練出錯(cuò)及解決方法(RuntimeError)

5.目標(biāo)檢測算法——將xml格式轉(zhuǎn)換為YOLOv5格式txt

6.目標(biāo)檢測算法——YOLOv5/YOLOv7如何改變bbox檢測框的粗細(xì)大小

7.人工智能前沿——6款A(yù)I繪畫生成工具

8.YOLOv5結(jié)合人體姿態(tài)估計(jì)

9.超越Y(jié)OLOv5,0.7M超輕量,又好又快(PP-YOLOE&PP-PicoDet)

10.目標(biāo)檢測算法——收藏|小目標(biāo)檢測的定義(一)

11.目標(biāo)檢測算法——收藏|小目標(biāo)檢測難點(diǎn)分析(二)

12.目標(biāo)檢測算法——收藏|小目標(biāo)檢測解決方案(三)

?? 持續(xù)更新中……

??九、數(shù)據(jù)資源相關(guān)項(xiàng)目(持續(xù)更新中)????

1.目標(biāo)檢測算法——小目標(biāo)檢測相關(guān)數(shù)據(jù)集(附下載鏈接)

2.目標(biāo)檢測算法——3D公共數(shù)據(jù)集匯總(附下載鏈接)

3.目標(biāo)檢測算法——3D公共數(shù)據(jù)集匯總 2(附下載鏈接)

4.目標(biāo)檢測算法——行人檢測&人群計(jì)數(shù)數(shù)據(jù)集匯總(附下載鏈接)

5.目標(biāo)檢測算法——遙感影像數(shù)據(jù)集資源匯總(附下載鏈接)

6.目標(biāo)檢測算法——自動(dòng)駕駛開源數(shù)據(jù)集匯總(附下載鏈接)

7.目標(biāo)檢測算法——自動(dòng)駕駛開源數(shù)據(jù)集匯總 2(附下載鏈接)

8.目標(biāo)檢測算法——圖像分類開源數(shù)據(jù)集匯總(附下載鏈接)

9.目標(biāo)檢測算法——醫(yī)學(xué)圖像開源數(shù)據(jù)集匯總(附下載鏈接)

10.目標(biāo)檢測算法——工業(yè)缺陷數(shù)據(jù)集匯總1(附下載鏈接)

11.目標(biāo)檢測算法——工業(yè)缺陷數(shù)據(jù)集匯總2(附下載鏈接)

12.目標(biāo)檢測算法——垃圾分類數(shù)據(jù)集匯總(附下載鏈接)

13.目標(biāo)檢測算法——人臉識(shí)別數(shù)據(jù)集匯總(附下載鏈接)

14.目標(biāo)檢測算法——安全帽識(shí)別數(shù)據(jù)集(附下載鏈接)

15.目標(biāo)檢測算法——人體姿態(tài)估計(jì)數(shù)據(jù)集匯總(附下載鏈接)

16.目標(biāo)檢測算法——人體姿態(tài)估計(jì)數(shù)據(jù)集匯總 2(附下載鏈接)

17.目標(biāo)檢測算法——車輛牌照識(shí)別數(shù)據(jù)集匯總(附下載鏈接)

18.目標(biāo)檢測算法——車輛牌照識(shí)別數(shù)據(jù)集匯總 2(附下載鏈接)

19.收藏 | 機(jī)器學(xué)習(xí)公共數(shù)據(jù)集集錦(附下載鏈接)

20.目標(biāo)檢測算法——圖像分割數(shù)據(jù)集匯總(附下載鏈接)

21.目標(biāo)檢測算法——圖像分割數(shù)據(jù)集匯總 2(附下載鏈接)

22.收藏 | 自然語言處理(NLP)數(shù)據(jù)集匯總(附下載鏈接)

23.自然語言處理(NLP)數(shù)據(jù)集匯總 2(附下載鏈接)

24.自然語言處理(NLP)數(shù)據(jù)集匯總 3(附下載鏈接)

25.自然語言處理(NLP)數(shù)據(jù)集匯總 4(附下載鏈接)

?? 持續(xù)更新中……

??十、論文投稿相關(guān)項(xiàng)目(持續(xù)更新中)????

1.論文投稿指南——收藏|SCI論文投稿注意事項(xiàng)(提高命中率)

2.論文投稿指南——收藏|SCI論文怎么投?(Accepted)

3.論文投稿指南——收藏|SCI寫作投稿發(fā)表全流程

4.論文投稿指南——收藏|如何選擇SCI期刊(含選刊必備神器)

5.論文投稿指南——SCI選刊

6.論文投稿指南——SCI投稿各階段郵件模板

7.人工智能前沿——深度學(xué)習(xí)熱門領(lǐng)域(確定選題及研究方向)

8.人工智能前沿——2022年最流行的十大AI技術(shù)

9.人工智能前沿——未來AI技術(shù)的五大應(yīng)用領(lǐng)域

10.人工智能前沿——無人自動(dòng)駕駛技術(shù)

11.人工智能前沿——AI技術(shù)在醫(yī)療領(lǐng)域的應(yīng)用

12.人工智能前沿——隨需應(yīng)變的未來大腦

13.目標(biāo)檢測算法——深度學(xué)習(xí)知識(shí)簡要普及

14.目標(biāo)檢測算法——10種深度學(xué)習(xí)框架介紹

15.目標(biāo)檢測算法——為什么我選擇PyTorch?

16.知識(shí)經(jīng)驗(yàn)分享——超全激活函數(shù)解析(數(shù)學(xué)原理+優(yōu)缺點(diǎn))

17.知識(shí)經(jīng)驗(yàn)分享——卷積神經(jīng)網(wǎng)絡(luò)(CNN)

18.海帶軟件分享——Office 2021全家桶安裝教程(附報(bào)錯(cuò)解決方法)

19.海帶軟件分享——日常辦公學(xué)習(xí)軟件分享(收藏)

20.論文投稿指南——計(jì)算機(jī)視覺 (Computer Vision) 頂會(huì)歸納

21.論文投稿指南——中文核心期刊

22.論文投稿指南——計(jì)算機(jī)領(lǐng)域核心期刊

23.論文投稿指南——中文核心期刊推薦(計(jì)算機(jī)技術(shù))

24.論文投稿指南——中文核心期刊推薦(計(jì)算機(jī)技術(shù)2)

25.論文投稿指南——中文核心期刊推薦(計(jì)算機(jī)技術(shù)3)

26.論文投稿指南——中文核心期刊推薦(電子、通信技術(shù))

27.論文投稿指南——中文核心期刊推薦(電子、通信技術(shù)2)

28.論文投稿指南——中文核心期刊推薦(電子、通信技術(shù)3)

29.論文投稿指南——中文核心期刊推薦(機(jī)械、儀表工業(yè))

30.論文投稿指南——中文核心期刊推薦(機(jī)械、儀表工業(yè)2)

31.論文投稿指南——中文核心期刊推薦(機(jī)械、儀表工業(yè)3)

32.論文投稿指南——中國(中文EI)期刊推薦(第1期)

33.論文投稿指南——中國(中文EI)期刊推薦(第2期)

34.論文投稿指南——中國(中文EI)期刊推薦(第3期)

35.論文投稿指南——中國(中文EI)期刊推薦(第4期)

36.論文投稿指南——中國(中文EI)期刊推薦(第5期)

37.論文投稿指南——中國(中文EI)期刊推薦(第6期)

38.論文投稿指南——中國(中文EI)期刊推薦(第7期)

39.論文投稿指南——中國(中文EI)期刊推薦(第8期)

40.【1】SCI易中期刊推薦——計(jì)算機(jī)方向(中科院3區(qū))

41.【2】SCI易中期刊推薦——遙感圖像領(lǐng)域(中科院2區(qū))

42.【3】SCI易中期刊推薦——人工智能領(lǐng)域(中科院1區(qū))

43.【4】SCI易中期刊推薦——神經(jīng)科學(xué)研究(中科院4區(qū))

44.【5】SCI易中期刊推薦——計(jì)算機(jī)科學(xué)(中科院2區(qū))

45.【6】SCI易中期刊推薦——人工智能&神經(jīng)科學(xué)&機(jī)器人學(xué)(中科院3區(qū))

46.【7】SCI易中期刊推薦——計(jì)算機(jī) | 人工智能(中科院4區(qū))

47.【8】SCI易中期刊推薦——圖像處理領(lǐng)域(中科院4區(qū))

48.【9】SCI易中期刊推薦——工程技術(shù)-計(jì)算機(jī):軟件工程(中科院4區(qū))

49.【10】SCI易中期刊推薦——工程技術(shù)-計(jì)算機(jī):人工智能(中科院2區(qū))

50.【11】SCI易中期刊推薦——計(jì)算機(jī)方向(中科院4區(qū))

51.【12】SCI易中期刊推薦——計(jì)算機(jī)信息系統(tǒng)(中科院4區(qū))

?? 持續(xù)更新中……

關(guān)于YOLO算法改進(jìn)及論文投稿可關(guān)注并留言博主的CSDN/QQ

>>>一起交流!互相學(xué)習(xí)!共同進(jìn)步!<<<

到了這里,關(guān)于?目標(biāo)檢測算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合?SOCA(單幅圖像超分辨率) CVPR19 單幅圖像超分辨率來了!??!的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包