国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

目標(biāo)檢測(cè)算法——YOLOv5/v7/v8改進(jìn)結(jié)合即插即用的動(dòng)態(tài)卷積ODConv(小目標(biāo)漲點(diǎn)神器)

這篇具有很好參考價(jià)值的文章主要介紹了目標(biāo)檢測(cè)算法——YOLOv5/v7/v8改進(jìn)結(jié)合即插即用的動(dòng)態(tài)卷積ODConv(小目標(biāo)漲點(diǎn)神器)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

yolov5添加動(dòng)態(tài)卷積,YOLOv5算法改進(jìn),YOLOv7算法改進(jìn),知識(shí)經(jīng)驗(yàn)分享,人工智能,計(jì)算機(jī)視覺(jué),YOLO,目標(biāo)檢測(cè)

????>>>加勒比海帶,QQ2479200884<<<????

????>>>【YOLO魔法搭配&論文投稿咨詢】<<<????

??>>>學(xué)習(xí)交流 | 溫瀾潮生 | 合作共贏 | 共同進(jìn)步<<<??

????>>>人工智能 | 計(jì)算機(jī)視覺(jué) | 深度學(xué)習(xí)Tricks | 第一時(shí)間送達(dá)<<<????


ICLR2022? 助力YOLO | 動(dòng)態(tài)卷積ODConv:大幅提升小目標(biāo)檢測(cè)能力!!


論文題目:Omni-Dimensional Dynamic Convolution

論文鏈接:https://openreview.net/forum?id=DmpCfq6Mg39

yolov5添加動(dòng)態(tài)卷積,YOLOv5算法改進(jìn),YOLOv7算法改進(jìn),知識(shí)經(jīng)驗(yàn)分享,人工智能,計(jì)算機(jī)視覺(jué),YOLO,目標(biāo)檢測(cè)

作者將CondConv中一個(gè)維度上的動(dòng)態(tài)特性進(jìn)行了擴(kuò)展,同時(shí)了考慮了空域、輸入通道、輸出通道等維度上的動(dòng)態(tài)性,故稱(chēng)之為全維度動(dòng)態(tài)卷積。ODConv通過(guò)并行策略采用多維注意力機(jī)制沿核空間的四個(gè)維度學(xué)習(xí)互補(bǔ)性注意力。

作為一種“即插即用”的操作,它可以輕易的嵌入到現(xiàn)有CNN網(wǎng)絡(luò)中。ImageNet分類(lèi)與COCO檢測(cè)任務(wù)上的實(shí)驗(yàn)驗(yàn)證了所提ODConv的優(yōu)異性:即可提升大模型的性能,又可提升輕量型模型的性能,實(shí)乃萬(wàn)金油是也!值得一提的是,受益于其改進(jìn)的特征提取能力,ODConv搭配一個(gè)卷積核時(shí)仍可取得與現(xiàn)有多核動(dòng)態(tài)卷積相當(dāng)甚至更優(yōu)的性能

一、ODConv網(wǎng)絡(luò)結(jié)構(gòu)

yolov5添加動(dòng)態(tài)卷積,YOLOv5算法改進(jìn),YOLOv7算法改進(jìn),知識(shí)經(jīng)驗(yàn)分享,人工智能,計(jì)算機(jī)視覺(jué),YOLO,目標(biāo)檢測(cè)

yolov5添加動(dòng)態(tài)卷積,YOLOv5算法改進(jìn),YOLOv7算法改進(jìn),知識(shí)經(jīng)驗(yàn)分享,人工智能,計(jì)算機(jī)視覺(jué),YOLO,目標(biāo)檢測(cè)

二、ODConv相關(guān)代碼

import torch
import torch.nn as nn
import torch.nn.functional as F
import torch.autograd


class Attention(nn.Module):
    def __init__(self, in_planes, out_planes, kernel_size, groups=1, reduction=0.0625, kernel_num=4, min_channel=16):
        super(Attention, self).__init__()
        attention_channel = max(int(in_planes * reduction), min_channel)
        self.kernel_size = kernel_size
        self.kernel_num = kernel_num
        self.temperature = 1.0

        self.avgpool = nn.AdaptiveAvgPool2d(1)
        self.fc = nn.Conv2d(in_planes, attention_channel, 1, bias=False)
        self.bn = nn.BatchNorm2d(attention_channel)
        self.relu = nn.ReLU(inplace=True)

        self.channel_fc = nn.Conv2d(attention_channel, in_planes, 1, bias=True)
        self.func_channel = self.get_channel_attention

        if in_planes == groups and in_planes == out_planes:  # depth-wise convolution
            self.func_filter = self.skip
        else:
            self.filter_fc = nn.Conv2d(attention_channel, out_planes, 1, bias=True)
            self.func_filter = self.get_filter_attention

        if kernel_size == 1:  # point-wise convolution
            self.func_spatial = self.skip
        else:
            self.spatial_fc = nn.Conv2d(attention_channel, kernel_size * kernel_size, 1, bias=True)
            self.func_spatial = self.get_spatial_attention

        if kernel_num == 1:
            self.func_kernel = self.skip
        else:
            self.kernel_fc = nn.Conv2d(attention_channel, kernel_num, 1, bias=True)
            self.func_kernel = self.get_kernel_attention

        self._initialize_weights()

    def _initialize_weights(self):
        for m in self.modules():
            if isinstance(m, nn.Conv2d):
                nn.init.kaiming_normal_(m.weight, mode='fan_out', nonlinearity='relu')
                if m.bias is not None:
                    nn.init.constant_(m.bias, 0)
            if isinstance(m, nn.BatchNorm2d):
                nn.init.constant_(m.weight, 1)
                nn.init.constant_(m.bias, 0)

    def update_temperature(self, temperature):
        self.temperature = temperature

    @staticmethod
    def skip(_):
        return 1.0

    def get_channel_attention(self, x):
        channel_attention = torch.sigmoid(self.channel_fc(x).view(x.size(0), -1, 1, 1) / self.temperature)
        return channel_attention

    def get_filter_attention(self, x):
        filter_attention = torch.sigmoid(self.filter_fc(x).view(x.size(0), -1, 1, 1) / self.temperature)
        return filter_attention

    def get_spatial_attention(self, x):
        spatial_attention = self.spatial_fc(x).view(x.size(0), 1, 1, 1, self.kernel_size, self.kernel_size)
        spatial_attention = torch.sigmoid(spatial_attention / self.temperature)
        return spatial_attention

    def get_kernel_attention(self, x):
        kernel_attention = self.kernel_fc(x).view(x.size(0), -1, 1, 1, 1, 1)
        kernel_attention = F.softmax(kernel_attention / self.temperature, dim=1)
        return kernel_attention

    def forward(self, x):
        x = self.avgpool(x)
        x = self.fc(x)
        x = self.bn(x)
        x = self.relu(x)
        return self.func_channel(x), self.func_filter(x), self.func_spatial(x), self.func_kernel(x)


class ODConv2d(nn.Module):
    def __init__(self, in_planes, out_planes, kernel_size, stride=1, padding=0, dilation=1, groups=1,
                 reduction=0.0625, kernel_num=4):
        super(ODConv2d, self).__init__()
        self.in_planes = in_planes
        self.out_planes = out_planes
        self.kernel_size = kernel_size
        self.stride = stride
        self.padding = padding
        self.dilation = dilation
        self.groups = groups
        self.kernel_num = kernel_num
        self.attention = Attention(in_planes, out_planes, kernel_size, groups=groups,
                                   reduction=reduction, kernel_num=kernel_num)
        self.weight = nn.Parameter(torch.randn(kernel_num, out_planes, in_planes//groups, kernel_size, kernel_size),
                                   requires_grad=True)
        self._initialize_weights()

        if self.kernel_size == 1 and self.kernel_num == 1:
            self._forward_impl = self._forward_impl_pw1x
        else:
            self._forward_impl = self._forward_impl_common

    def _initialize_weights(self):
        for i in range(self.kernel_num):
            nn.init.kaiming_normal_(self.weight[i], mode='fan_out', nonlinearity='relu')

    def update_temperature(self, temperature):
        self.attention.update_temperature(temperature)

    def _forward_impl_common(self, x):
        # Multiplying channel attention (or filter attention) to weights and feature maps are equivalent,
        # while we observe that when using the latter method the models will run faster with less gpu memory cost.
        channel_attention, filter_attention, spatial_attention, kernel_attention = self.attention(x)
        batch_size, in_planes, height, width = x.size()
        x = x * channel_attention
        x = x.reshape(1, -1, height, width)
        aggregate_weight = spatial_attention * kernel_attention * self.weight.unsqueeze(dim=0)
        aggregate_weight = torch.sum(aggregate_weight, dim=1).view(
            [-1, self.in_planes // self.groups, self.kernel_size, self.kernel_size])
        output = F.conv2d(x, weight=aggregate_weight, bias=None, stride=self.stride, padding=self.padding,
                          dilation=self.dilation, groups=self.groups * batch_size)
        output = output.view(batch_size, self.out_planes, output.size(-2), output.size(-1))
        output = output * filter_attention
        return output

    def _forward_impl_pw1x(self, x):
        channel_attention, filter_attention, spatial_attention, kernel_attention = self.attention(x)
        x = x * channel_attention
        output = F.conv2d(x, weight=self.weight.squeeze(dim=0), bias=None, stride=self.stride, padding=self.padding,
                          dilation=self.dilation, groups=self.groups)
        output = output * filter_attention
        return output

    def forward(self, x):
        return self._forward_impl(x)

三、實(shí)驗(yàn)對(duì)比結(jié)果

yolov5添加動(dòng)態(tài)卷積,YOLOv5算法改進(jìn),YOLOv7算法改進(jìn),知識(shí)經(jīng)驗(yàn)分享,人工智能,計(jì)算機(jī)視覺(jué),YOLO,目標(biāo)檢測(cè)

yolov5添加動(dòng)態(tài)卷積,YOLOv5算法改進(jìn),YOLOv7算法改進(jìn),知識(shí)經(jīng)驗(yàn)分享,人工智能,計(jì)算機(jī)視覺(jué),YOLO,目標(biāo)檢測(cè)

yolov5添加動(dòng)態(tài)卷積,YOLOv5算法改進(jìn),YOLOv7算法改進(jìn),知識(shí)經(jīng)驗(yàn)分享,人工智能,計(jì)算機(jī)視覺(jué),YOLO,目標(biāo)檢測(cè)文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-805985.html


??????【算法創(chuàng)新&算法訓(xùn)練&論文投稿】相關(guān)鏈接??????


?【YOLO創(chuàng)新算法嘗新系列】?

???美團(tuán)出品 | YOLOv6 v3.0 is Coming(超越Y(jié)OLOv7、v8)

???官方正品 | Ultralytics YOLOv8算法來(lái)啦(尖端SOTA模型)

???改進(jìn)YOLOv5/YOLOv7——魔改YOLOv5/YOLOv7提升檢測(cè)精度(漲點(diǎn)必備)

————————————??【重磅干貨來(lái)襲】??————————————

??一、主干網(wǎng)絡(luò)改進(jìn)(持續(xù)更新中)????

1.目標(biāo)檢測(cè)算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合ConvNeXt結(jié)構(gòu)(純卷積|超越Swin)

2.目標(biāo)檢測(cè)算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合MobileOne結(jié)構(gòu)(高性能骨干|僅需1ms)

3.目標(biāo)檢測(cè)算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合Swin Transformer V2(漲點(diǎn)神器)

4.目標(biāo)檢測(cè)算法——YOLOv5/YOLOv7改進(jìn)結(jié)合BotNet(Transformer)

5.目標(biāo)檢測(cè)算法——YOLOv5/YOLOv7改進(jìn)之GSConv+Slim Neck(優(yōu)化成本)

6.目標(biāo)檢測(cè)算法——YOLOv5/YOLOv7改進(jìn)結(jié)合新神經(jīng)網(wǎng)絡(luò)算子Involution(CVPR 2021)

7.目標(biāo)檢測(cè)算法——YOLOv7改進(jìn)|增加小目標(biāo)檢測(cè)層

8.目標(biāo)檢測(cè)算法——YOLOv5改進(jìn)|增加小目標(biāo)檢測(cè)層

?? 持續(xù)更新中……

??二、輕量化網(wǎng)絡(luò)(持續(xù)更新中)????

1.目標(biāo)檢測(cè)算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合?RepVGG(速度飆升)

2.目標(biāo)檢測(cè)算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合?PP-LCNet(輕量級(jí)CPU網(wǎng)絡(luò))

3.目標(biāo)檢測(cè)算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合輕量化網(wǎng)絡(luò)MobileNetV3(降參提速)

4.目標(biāo)檢測(cè)算法——YOLOv5/YOLOv7改進(jìn)|結(jié)合輕量型網(wǎng)絡(luò)ShuffleNetV2

5.目標(biāo)檢測(cè)算法——YOLOv5/YOLOv7改進(jìn)結(jié)合輕量型Ghost模塊

?? 持續(xù)更新中……

??三、注意力機(jī)制(持續(xù)更新中)????

1.目標(biāo)檢測(cè)算法——YOLOv5改進(jìn)之結(jié)合CBAM注意力機(jī)制

2.目標(biāo)檢測(cè)算法——YOLOv7改進(jìn)之結(jié)合CBAM注意力機(jī)制

3.目標(biāo)檢測(cè)算法——YOLOv5/YOLOv7之結(jié)合CA注意力機(jī)制

4.目標(biāo)檢測(cè)算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合ECA注意力機(jī)制

5.目標(biāo)檢測(cè)算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合NAMAttention(提升漲點(diǎn))

6.目標(biāo)檢測(cè)算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合GAMAttention

7.目標(biāo)檢測(cè)算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合無(wú)參注意力SimAM(漲點(diǎn)神器)

8.目標(biāo)檢測(cè)算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合Criss-Cross Attention

9.?目標(biāo)檢測(cè)算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合?SOCA(單幅圖像超分辨率)

?? 持續(xù)更新中……

??四、檢測(cè)頭部改進(jìn)(持續(xù)更新中)????

1.魔改YOLOv5/v7高階版(魔法搭配+創(chuàng)新組合)——改進(jìn)之結(jié)合解耦頭Decoupled_Detect

2.目標(biāo)檢測(cè)算法——YOLOv5/YOLOv7改進(jìn)結(jié)合漲點(diǎn)Trick之ASFF(自適應(yīng)空間特征融合)

?? 持續(xù)更新中……

??五、空間金字塔池化(持續(xù)更新中)????

1.目標(biāo)檢測(cè)算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合?ASPP(空洞空間卷積池化金字塔)

2.目標(biāo)檢測(cè)算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合特征提取網(wǎng)絡(luò)RFBNet(漲點(diǎn)明顯)

?? 持續(xù)更新中……

??六、損失函數(shù)及NMS改進(jìn)(持續(xù)更新中)????

1.目標(biāo)檢測(cè)算法——YOLOv5/YOLOv7改進(jìn)|將IOU Loss替換為EIOU Loss

2.目標(biāo)檢測(cè)算法——助力漲點(diǎn) | YOLOv5改進(jìn)結(jié)合Alpha-IoU

3.目標(biāo)檢測(cè)算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合SIoU

4.目標(biāo)檢測(cè)算法——YOLOv5將NMS替換為DIoU-NMS

?? 持續(xù)更新中……

??七、其他創(chuàng)新改進(jìn)項(xiàng)目(持續(xù)更新中)????

1.手把手教你搭建屬于自己的PyQt5-YOLOv5目標(biāo)檢測(cè)平臺(tái)(保姆級(jí)教程)

2.YOLO算法改進(jìn)之結(jié)合GradCAM可視化熱力圖(附詳細(xì)教程)

3.目標(biāo)檢測(cè)算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合SPD-Conv(低分辨率圖像和小目標(biāo)漲點(diǎn)明顯)

4.目標(biāo)檢測(cè)算法——YOLOv5/YOLOv7改進(jìn)之更換FReLU激活函數(shù)

5.目標(biāo)檢測(cè)算法——YOLOv5/YOLOv7改進(jìn)之結(jié)合BiFPN

?? 持續(xù)更新中……

??八、算法訓(xùn)練相關(guān)項(xiàng)目(持續(xù)更新中)????

1.目標(biāo)檢測(cè)算法——YOLOv7訓(xùn)練自己的數(shù)據(jù)集(保姆級(jí)教程)

2.人工智能前沿——玩轉(zhuǎn)OpenAI語(yǔ)音機(jī)器人ChatGPT(中文版)

3.深度學(xué)習(xí)之語(yǔ)義分割算法(入門(mén)學(xué)習(xí))

4.知識(shí)經(jīng)驗(yàn)分享——YOLOv5-6.0訓(xùn)練出錯(cuò)及解決方法(RuntimeError)

5.目標(biāo)檢測(cè)算法——將xml格式轉(zhuǎn)換為YOLOv5格式txt

6.目標(biāo)檢測(cè)算法——YOLOv5/YOLOv7如何改變bbox檢測(cè)框的粗細(xì)大小

7.人工智能前沿——6款A(yù)I繪畫(huà)生成工具

8.YOLOv5結(jié)合人體姿態(tài)估計(jì)

9.超越Y(jié)OLOv5,0.7M超輕量,又好又快(PP-YOLOE&PP-PicoDet)

10.目標(biāo)檢測(cè)算法——收藏|小目標(biāo)檢測(cè)的定義(一)

11.目標(biāo)檢測(cè)算法——收藏|小目標(biāo)檢測(cè)難點(diǎn)分析(二)

12.目標(biāo)檢測(cè)算法——收藏|小目標(biāo)檢測(cè)解決方案(三)

?? 持續(xù)更新中……

??九、數(shù)據(jù)資源相關(guān)項(xiàng)目(持續(xù)更新中)????

1.目標(biāo)檢測(cè)算法——小目標(biāo)檢測(cè)相關(guān)數(shù)據(jù)集(附下載鏈接)

2.目標(biāo)檢測(cè)算法——3D公共數(shù)據(jù)集匯總(附下載鏈接)

3.目標(biāo)檢測(cè)算法——3D公共數(shù)據(jù)集匯總 2(附下載鏈接)

4.目標(biāo)檢測(cè)算法——行人檢測(cè)&人群計(jì)數(shù)數(shù)據(jù)集匯總(附下載鏈接)

5.目標(biāo)檢測(cè)算法——遙感影像數(shù)據(jù)集資源匯總(附下載鏈接)

6.目標(biāo)檢測(cè)算法——自動(dòng)駕駛開(kāi)源數(shù)據(jù)集匯總(附下載鏈接)

7.目標(biāo)檢測(cè)算法——自動(dòng)駕駛開(kāi)源數(shù)據(jù)集匯總 2(附下載鏈接)

8.目標(biāo)檢測(cè)算法——圖像分類(lèi)開(kāi)源數(shù)據(jù)集匯總(附下載鏈接)

9.目標(biāo)檢測(cè)算法——醫(yī)學(xué)圖像開(kāi)源數(shù)據(jù)集匯總(附下載鏈接)

10.目標(biāo)檢測(cè)算法——工業(yè)缺陷數(shù)據(jù)集匯總1(附下載鏈接)

11.目標(biāo)檢測(cè)算法——工業(yè)缺陷數(shù)據(jù)集匯總2(附下載鏈接)

12.目標(biāo)檢測(cè)算法——垃圾分類(lèi)數(shù)據(jù)集匯總(附下載鏈接)

13.目標(biāo)檢測(cè)算法——人臉識(shí)別數(shù)據(jù)集匯總(附下載鏈接)

14.目標(biāo)檢測(cè)算法——安全帽識(shí)別數(shù)據(jù)集(附下載鏈接)

15.目標(biāo)檢測(cè)算法——人體姿態(tài)估計(jì)數(shù)據(jù)集匯總(附下載鏈接)

16.目標(biāo)檢測(cè)算法——人體姿態(tài)估計(jì)數(shù)據(jù)集匯總 2(附下載鏈接)

17.目標(biāo)檢測(cè)算法——車(chē)輛牌照識(shí)別數(shù)據(jù)集匯總(附下載鏈接)

18.目標(biāo)檢測(cè)算法——車(chē)輛牌照識(shí)別數(shù)據(jù)集匯總 2(附下載鏈接)

19.收藏 | 機(jī)器學(xué)習(xí)公共數(shù)據(jù)集集錦(附下載鏈接)

20.目標(biāo)檢測(cè)算法——圖像分割數(shù)據(jù)集匯總(附下載鏈接)

21.目標(biāo)檢測(cè)算法——圖像分割數(shù)據(jù)集匯總 2(附下載鏈接)

22.收藏 | 自然語(yǔ)言處理(NLP)數(shù)據(jù)集匯總(附下載鏈接)

23.自然語(yǔ)言處理(NLP)數(shù)據(jù)集匯總 2(附下載鏈接)

24.自然語(yǔ)言處理(NLP)數(shù)據(jù)集匯總 3(附下載鏈接)

25.自然語(yǔ)言處理(NLP)數(shù)據(jù)集匯總 4(附下載鏈接)

?? 持續(xù)更新中……

??十、論文投稿相關(guān)項(xiàng)目(持續(xù)更新中)????

1.論文投稿指南——收藏|SCI論文投稿注意事項(xiàng)(提高命中率)

2.論文投稿指南——收藏|SCI論文怎么投?(Accepted)

3.論文投稿指南——收藏|SCI寫(xiě)作投稿發(fā)表全流程

4.論文投稿指南——收藏|如何選擇SCI期刊(含選刊必備神器)

5.論文投稿指南——SCI選刊

6.論文投稿指南——SCI投稿各階段郵件模板

7.人工智能前沿——深度學(xué)習(xí)熱門(mén)領(lǐng)域(確定選題及研究方向)

8.人工智能前沿——2022年最流行的十大AI技術(shù)

9.人工智能前沿——未來(lái)AI技術(shù)的五大應(yīng)用領(lǐng)域

10.人工智能前沿——無(wú)人自動(dòng)駕駛技術(shù)

11.人工智能前沿——AI技術(shù)在醫(yī)療領(lǐng)域的應(yīng)用

12.人工智能前沿——隨需應(yīng)變的未來(lái)大腦

13.目標(biāo)檢測(cè)算法——深度學(xué)習(xí)知識(shí)簡(jiǎn)要普及

14.目標(biāo)檢測(cè)算法——10種深度學(xué)習(xí)框架介紹

15.目標(biāo)檢測(cè)算法——為什么我選擇PyTorch?

16.知識(shí)經(jīng)驗(yàn)分享——超全激活函數(shù)解析(數(shù)學(xué)原理+優(yōu)缺點(diǎn))

17.知識(shí)經(jīng)驗(yàn)分享——卷積神經(jīng)網(wǎng)絡(luò)(CNN)

18.海帶軟件分享——Office 2021全家桶安裝教程(附報(bào)錯(cuò)解決方法)

19.海帶軟件分享——日常辦公學(xué)習(xí)軟件分享(收藏)

20.論文投稿指南——計(jì)算機(jī)視覺(jué) (Computer Vision) 頂會(huì)歸納

21.論文投稿指南——中文核心期刊

22.論文投稿指南——計(jì)算機(jī)領(lǐng)域核心期刊

23.論文投稿指南——中文核心期刊推薦(計(jì)算機(jī)技術(shù))

24.論文投稿指南——中文核心期刊推薦(計(jì)算機(jī)技術(shù)2)

25.論文投稿指南——中文核心期刊推薦(計(jì)算機(jī)技術(shù)3)

26.論文投稿指南——中文核心期刊推薦(電子、通信技術(shù))

27.論文投稿指南——中文核心期刊推薦(電子、通信技術(shù)2)

28.論文投稿指南——中文核心期刊推薦(電子、通信技術(shù)3)

29.論文投稿指南——中文核心期刊推薦(機(jī)械、儀表工業(yè))

30.論文投稿指南——中文核心期刊推薦(機(jī)械、儀表工業(yè)2)

31.論文投稿指南——中文核心期刊推薦(機(jī)械、儀表工業(yè)3)

32.論文投稿指南——中國(guó)(中文EI)期刊推薦(第1期)

33.論文投稿指南——中國(guó)(中文EI)期刊推薦(第2期)

34.論文投稿指南——中國(guó)(中文EI)期刊推薦(第3期)

35.論文投稿指南——中國(guó)(中文EI)期刊推薦(第4期)

36.論文投稿指南——中國(guó)(中文EI)期刊推薦(第5期)

37.論文投稿指南——中國(guó)(中文EI)期刊推薦(第6期)

38.論文投稿指南——中國(guó)(中文EI)期刊推薦(第7期)

39.論文投稿指南——中國(guó)(中文EI)期刊推薦(第8期)

40.【1】SCI易中期刊推薦——計(jì)算機(jī)方向(中科院3區(qū))

41.【2】SCI易中期刊推薦——遙感圖像領(lǐng)域(中科院2區(qū))

42.【3】SCI易中期刊推薦——人工智能領(lǐng)域(中科院1區(qū))

43.【4】SCI易中期刊推薦——神經(jīng)科學(xué)研究(中科院4區(qū))

44.【5】SCI易中期刊推薦——計(jì)算機(jī)科學(xué)(中科院2區(qū))

45.【6】SCI易中期刊推薦——人工智能&神經(jīng)科學(xué)&機(jī)器人學(xué)(中科院3區(qū))

46.【7】SCI易中期刊推薦——計(jì)算機(jī) | 人工智能(中科院4區(qū))

47.【8】SCI易中期刊推薦——圖像處理領(lǐng)域(中科院4區(qū))

48.【9】SCI易中期刊推薦——工程技術(shù)-計(jì)算機(jī):軟件工程(中科院4區(qū))

49.【10】SCI易中期刊推薦——工程技術(shù)-計(jì)算機(jī):人工智能(中科院2區(qū))

50.【11】SCI易中期刊推薦——計(jì)算機(jī)方向(中科院4區(qū))

51.【12】SCI易中期刊推薦——計(jì)算機(jī)信息系統(tǒng)(中科院4區(qū))

?? 持續(xù)更新中……

關(guān)于YOLO算法改進(jìn)&論文投稿可關(guān)注并留言博主的CSDN/QQ

>>>一起交流!互相學(xué)習(xí)!共同進(jìn)步!<<<

到了這里,關(guān)于目標(biāo)檢測(cè)算法——YOLOv5/v7/v8改進(jìn)結(jié)合即插即用的動(dòng)態(tài)卷積ODConv(小目標(biāo)漲點(diǎn)神器)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包