国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

AI助力農(nóng)作物自動采摘,基于YOLOv8全系列【n/s/m/l/x】參數(shù)模型開發(fā)構(gòu)建作物生產(chǎn)場景下番茄采摘檢測計數(shù)分析系統(tǒng)

這篇具有很好參考價值的文章主要介紹了AI助力農(nóng)作物自動采摘,基于YOLOv8全系列【n/s/m/l/x】參數(shù)模型開發(fā)構(gòu)建作物生產(chǎn)場景下番茄采摘檢測計數(shù)分析系統(tǒng)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

去年十一那會無意間刷到一個視頻展示的就是德國機械收割機非常高效自動化地24小時不間斷地在超廣闊的土地上采摘各種作物,專家設計出來了很多用于采摘不同農(nóng)作物的大型機械,看著非常震撼,但是我們國內(nèi)農(nóng)業(yè)的發(fā)展還是相對比較滯后的,小的時候拔草是一個人一列蹲在地里就在那埋頭拔草,不知道什么時候才能走到地的盡頭,小塊的分散的土地太多基本上都是只能人工手工來取收割,大點的連片的土地可以用收割機來收割,不過收割機基本都是用來收割小麥的,最近幾年好像老家也能看到用于收割玉米的機器了不過相對還是比較少的,玉米的收割我們基本上還是人工來收割的,不僅累效率還低遇上對玉米葉片過敏的就更要命了。。。。閑話就扯到這里了。

有時候經(jīng)常在想我們的農(nóng)業(yè)機械化自動化什么時候能再向前邁進一大步,回顧德國的工業(yè)機械,在視頻展示的效果中,其實很關(guān)鍵的主要是兩部分,一部分是機器視覺定位檢測識別,另一部分是機械臂傳動軸,兩部分相互配合才能完成采摘工作,本文的主要想法是想要基于最新的YOLOv8開發(fā)構(gòu)建用于番茄采摘場景下的目標檢測系統(tǒng),首先看下實例效果:

yolov8的smxl怎么分配的,YOLO

簡單看下實例數(shù)據(jù)情況:

yolov8的smxl怎么分配的,YOLO

如果對YOLOv8開發(fā)構(gòu)建自己的目標檢測項目有疑問的可以看下面的文章,如下所示:

《基于YOLOv8開發(fā)構(gòu)建目標檢測模型超詳細教程【以焊縫質(zhì)量檢測數(shù)據(jù)場景為例】》

非常詳細的開發(fā)實踐教程。本文這里就不再展開了,因為從YOLOv8開始變成了一個安裝包的形式,整體跟v5和v7的使用差異還是比較大的。

非常詳細的開發(fā)實踐教程。本文這里就不再展開了,因為從YOLOv8開始變成了一個安裝包的形式,整體跟v5和v7的使用差異還是比較大的。

YOLOv8核心特性和改動如下:
1、提供了一個全新的SOTA模型(state-of-the-art model),包括 P5 640 和 P6 1280 分辨率的目標檢測網(wǎng)絡和基于YOLACT的實例分割模型。和 YOLOv5 一樣,基于縮放系數(shù)也提供了 N/S/M/L/X 尺度的不同大小模型,用于滿足不同場景需求
2、骨干網(wǎng)絡和 Neck 部分可能參考了 YOLOv7 ELAN 設計思想,將 YOLOv5 的 C3 結(jié)構(gòu)換成了梯度流更豐富的 C2f 結(jié)構(gòu),并對不同尺度模型調(diào)整了不同的通道數(shù),屬于對模型結(jié)構(gòu)精心微調(diào),不再是一套參數(shù)應用所有模型,大幅提升了模型性能。
3、Head 部分相比 YOLOv5 改動較大,換成了目前主流的解耦頭結(jié)構(gòu),將分類和檢測頭分離,同時也從Anchor-Based 換成了 Anchor-Free
4、Loss 計算方面采用了TaskAlignedAssigner正樣本分配策略,并引入了Distribution Focal Loss
5、訓練的數(shù)據(jù)增強部分引入了 YOLOX 中的最后 10 epoch 關(guān)閉 Mosiac 增強的操作,可以有效地提升精度

實例數(shù)據(jù)標注內(nèi)容如下所示:

0 0.498 0.075 0.396 0.15
0 0.144 0.11125 0.284 0.2225
0 0.936 0.455 0.08 0.085
0 0.927 0.37625 0.074 0.0975

YOLOv8官方項目地址在這里,如下所示:

yolov8的smxl怎么分配的,YOLO

yolov8的smxl怎么分配的,YOLO

目前已經(jīng)收獲超過1.7w的star量了。官方提供的預訓練模型如下所示:

Model size
(pixels)
mAPval
50-95
Speed
CPU ONNX
(ms)
Speed
A100 TensorRT
(ms)
params
(M)
FLOPs
(B)
YOLOv8n 640 37.3 80.4 0.99 3.2 8.7
YOLOv8s 640 44.9 128.4 1.20 11.2 28.6
YOLOv8m 640 50.2 234.7 1.83 25.9 78.9
YOLOv8l 640 52.9 375.2 2.39 43.7 165.2
YOLOv8x 640 53.9 479.1 3.53 68.2 257.8

另外一套預訓練模型權(quán)重地址如下:

Model size
(pixels)
mAPval
50-95
Speed
CPU ONNX
(ms)
Speed
A100 TensorRT
(ms)
params
(M)
FLOPs
(B)
YOLOv8n 640 18.4 142.4 1.21 3.5 10.5
YOLOv8s 640 27.7 183.1 1.40 11.4 29.7
YOLOv8m 640 33.6 408.5 2.26 26.2 80.6
YOLOv8l 640 34.9 596.9 2.43 44.1 167.4
YOLOv8x 640 36.3 860.6 3.56 68.7 260.6

是基于Open Image V7數(shù)據(jù)集構(gòu)建的,可以根據(jù)自己的需求進行選擇使用即可。

YOLOv8的定位不僅僅是目標檢測,而是性能強大全面的工具庫,故而在任務類型上同時支持:姿態(tài)估計、檢測、分類、分割、跟蹤多種類型,可以根據(jù)自己的需要進行選擇使用,這里就不再詳細展開了。

簡單的實例實現(xiàn)如下所示:

from ultralytics import YOLO
 
# yolov8n
model = YOLO('yolov8n.yaml').load('yolov8n.pt')  # build from YAML and transfer weights
model.train(data='data/self.yaml', epochs=100, imgsz=640)
 
 
# yolov8s
model = YOLO('yolov8s.yaml').load('yolov8s.pt')  # build from YAML and transfer weights
model.train(data='data/self.yaml', epochs=100, imgsz=640)
 
 
# yolov8m
model = YOLO('yolov8m.yaml').load('yolov8m.pt')  # build from YAML and transfer weights
model.train(data='data/self.yaml', epochs=100, imgsz=640)
 
 
# yolov8l
model = YOLO('yolov8l.yaml').load('yolov8l.pt')  # build from YAML and transfer weights
model.train(data='data/self.yaml', epochs=100, imgsz=640)
 
 
# yolov8x
model = YOLO('yolov8x.yaml').load('yolov8x.pt')  # build from YAML and transfer weights
model.train(data='data/self.yaml', epochs=100, imgsz=640)

這里給出yolov8的模型文件如下:

# Ultralytics YOLO ??, AGPL-3.0 license
# YOLOv8 object detection model with P3-P5 outputs. For Usage examples see https://docs.ultralytics.com/tasks/detect
 
# Parameters
nc: 1   # number of classes
scales: # model compound scaling constants, i.e. 'model=yolov8n.yaml' will call yolov8.yaml with scale 'n'
  # [depth, width, max_channels]
  n: [0.33, 0.25, 1024]  # YOLOv8n summary: 225 layers,  3157200 parameters,  3157184 gradients,   8.9 GFLOPs
  s: [0.33, 0.50, 1024]  # YOLOv8s summary: 225 layers, 11166560 parameters, 11166544 gradients,  28.8 GFLOPs
  m: [0.67, 0.75, 768]   # YOLOv8m summary: 295 layers, 25902640 parameters, 25902624 gradients,  79.3 GFLOPs
  l: [1.00, 1.00, 512]   # YOLOv8l summary: 365 layers, 43691520 parameters, 43691504 gradients, 165.7 GFLOPs
  x: [1.00, 1.25, 512]   # YOLOv8x summary: 365 layers, 68229648 parameters, 68229632 gradients, 258.5 GFLOPs
 
# YOLOv8.0n backbone
backbone:
  # [from, repeats, module, args]
  - [-1, 1, Conv, [64, 3, 2]]  # 0-P1/2
  - [-1, 1, Conv, [128, 3, 2]]  # 1-P2/4
  - [-1, 3, C2f, [128, True]]
  - [-1, 1, Conv, [256, 3, 2]]  # 3-P3/8
  - [-1, 6, C2f, [256, True]]
  - [-1, 1, Conv, [512, 3, 2]]  # 5-P4/16
  - [-1, 6, C2f, [512, True]]
  - [-1, 1, Conv, [1024, 3, 2]]  # 7-P5/32
  - [-1, 3, C2f, [1024, True]]
  - [-1, 1, SPPF, [1024, 5]]  # 9
 
# YOLOv8.0n head
head:
  - [-1, 1, nn.Upsample, [None, 2, 'nearest']]
  - [[-1, 6], 1, Concat, [1]]  # cat backbone P4
  - [-1, 3, C2f, [512]]  # 12
 
  - [-1, 1, nn.Upsample, [None, 2, 'nearest']]
  - [[-1, 4], 1, Concat, [1]]  # cat backbone P3
  - [-1, 3, C2f, [256]]  # 15 (P3/8-small)
 
  - [-1, 1, Conv, [256, 3, 2]]
  - [[-1, 12], 1, Concat, [1]]  # cat head P4
  - [-1, 3, C2f, [512]]  # 18 (P4/16-medium)
 
  - [-1, 1, Conv, [512, 3, 2]]
  - [[-1, 9], 1, Concat, [1]]  # cat head P5
  - [-1, 3, C2f, [1024]]  # 21 (P5/32-large)
 
  - [[15, 18, 21], 1, Detect, [nc]]  # Detect(P3, P4, P5)

實驗階段,5款不同參數(shù)量級的模型保持著完全相同的參數(shù)配置,等待訓練完成后我們來看下模型結(jié)果詳情。為了直觀對比展示,這里我們對其各個評估指標進行對比可視化

【Precision曲線】
精確率曲線(Precision-Recall Curve)是一種用于評估二分類模型在不同閾值下的精確率性能的可視化工具。它通過繪制不同閾值下的精確率和召回率之間的關(guān)系圖來幫助我們了解模型在不同閾值下的表現(xiàn)。
精確率(Precision)是指被正確預測為正例的樣本數(shù)占所有預測為正例的樣本數(shù)的比例。召回率(Recall)是指被正確預測為正例的樣本數(shù)占所有實際為正例的樣本數(shù)的比例。
繪制精確率曲線的步驟如下:
使用不同的閾值將預測概率轉(zhuǎn)換為二進制類別標簽。通常,當預測概率大于閾值時,樣本被分類為正例,否則分類為負例。
對于每個閾值,計算相應的精確率和召回率。
將每個閾值下的精確率和召回率繪制在同一個圖表上,形成精確率曲線。
根據(jù)精確率曲線的形狀和變化趨勢,可以選擇適當?shù)拈撝狄赃_到所需的性能要求。
通過觀察精確率曲線,我們可以根據(jù)需求確定最佳的閾值,以平衡精確率和召回率。較高的精確率意味著較少的誤報,而較高的召回率則表示較少的漏報。根據(jù)具體的業(yè)務需求和成本權(quán)衡,可以在曲線上選擇合適的操作點或閾值。
精確率曲線通常與召回率曲線(Recall Curve)一起使用,以提供更全面的分類器性能分析,并幫助評估和比較不同模型的性能。

yolov8的smxl怎么分配的,YOLO

【Recall曲線】
召回率曲線(Recall Curve)是一種用于評估二分類模型在不同閾值下的召回率性能的可視化工具。它通過繪制不同閾值下的召回率和對應的精確率之間的關(guān)系圖來幫助我們了解模型在不同閾值下的表現(xiàn)。
召回率(Recall)是指被正確預測為正例的樣本數(shù)占所有實際為正例的樣本數(shù)的比例。召回率也被稱為靈敏度(Sensitivity)或真正例率(True Positive Rate)。
繪制召回率曲線的步驟如下:
使用不同的閾值將預測概率轉(zhuǎn)換為二進制類別標簽。通常,當預測概率大于閾值時,樣本被分類為正例,否則分類為負例。
對于每個閾值,計算相應的召回率和對應的精確率。
將每個閾值下的召回率和精確率繪制在同一個圖表上,形成召回率曲線。
根據(jù)召回率曲線的形狀和變化趨勢,可以選擇適當?shù)拈撝狄赃_到所需的性能要求。
通過觀察召回率曲線,我們可以根據(jù)需求確定最佳的閾值,以平衡召回率和精確率。較高的召回率表示較少的漏報,而較高的精確率意味著較少的誤報。根據(jù)具體的業(yè)務需求和成本權(quán)衡,可以在曲線上選擇合適的操作點或閾值。

yolov8的smxl怎么分配的,YOLO

【F1值曲線】
F1值曲線是一種用于評估二分類模型在不同閾值下的性能的可視化工具。它通過繪制不同閾值下的精確率(Precision)、召回率(Recall)和F1分數(shù)的關(guān)系圖來幫助我們理解模型的整體性能。F1分數(shù)是精確率和召回率的調(diào)和平均值,它綜合考慮了兩者的性能指標。F1值曲線可以幫助我們確定在不同精確率和召回率之間找到一個平衡點,以選擇最佳的閾值。

yolov8的smxl怎么分配的,YOLO

整體實驗對比結(jié)果來看:五款不同參數(shù)量級的模型最終達到的不相上下的性能水平,考慮到實際參數(shù)量的問題,這里選擇使用最為輕量級的n系列的模型作為最終推理模型,接下來以n系列模型為基準看下詳細情況。

【PR曲線】
精確率-召回率曲線(Precision-Recall Curve)是一種用于評估二分類模型性能的可視化工具。它通過繪制不同閾值下的精確率(Precision)和召回率(Recall)之間的關(guān)系圖來幫助我們了解模型在不同閾值下的表現(xiàn)。
精確率是指被正確預測為正例的樣本數(shù)占所有預測為正例的樣本數(shù)的比例。召回率是指被正確預測為正例的樣本數(shù)占所有實際為正例的樣本數(shù)的比例。
繪制精確率-召回率曲線的步驟如下:
使用不同的閾值將預測概率轉(zhuǎn)換為二進制類別標簽。通常,當預測概率大于閾值時,樣本被分類為正例,否則分類為負例。
對于每個閾值,計算相應的精確率和召回率。
將每個閾值下的精確率和召回率繪制在同一個圖表上,形成精確率-召回率曲線。
根據(jù)曲線的形狀和變化趨勢,可以選擇適當?shù)拈撝狄赃_到所需的性能要求。
精確率-召回率曲線提供了更全面的模型性能分析,特別適用于處理不平衡數(shù)據(jù)集和關(guān)注正例預測的場景。曲線下面積(Area Under the Curve, AUC)可以作為評估模型性能的指標,AUC值越高表示模型的性能越好。
通過觀察精確率-召回率曲線,我們可以根據(jù)需求選擇合適的閾值來權(quán)衡精確率和召回率之間的平衡點。根據(jù)具體的業(yè)務需求和成本權(quán)衡,可以在曲線上選擇合適的操作點或閾值。

yolov8的smxl怎么分配的,YOLO

【訓練可視化】

yolov8的smxl怎么分配的,YOLO

【Batch實例】

yolov8的smxl怎么分配的,YOLO

yolov8的smxl怎么分配的,YOLO

感興趣的話也都可以試試看!

如果自己不具備開發(fā)訓練的資源條件或者是沒有時間自己去訓練的話這里我提供出來對應的訓練結(jié)果可供自行按需索取。

單個模型的訓練結(jié)果默認YOLOv8s

全系列五個模型的訓練結(jié)果總集文章來源地址http://www.zghlxwxcb.cn/news/detail-827825.html

到了這里,關(guān)于AI助力農(nóng)作物自動采摘,基于YOLOv8全系列【n/s/m/l/x】參數(shù)模型開發(fā)構(gòu)建作物生產(chǎn)場景下番茄采摘檢測計數(shù)分析系統(tǒng)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務器費用

相關(guān)文章

  • 基于深度學習的農(nóng)作物病蟲害識別系統(tǒng)

    基于深度學習的農(nóng)作物病蟲害識別系統(tǒng)

    今天向大家介紹一個幫助往屆學生完成的畢業(yè)設計項目, 基于深度學習的農(nóng)作物病蟲害識別系統(tǒng) 。 及時、準確地診斷植物病害,對于防止農(nóng)業(yè)生產(chǎn)的損失和農(nóng)產(chǎn)品的損失或減少具有重要作用。為了解決這類問題,可以使用基于機器學習的方法。近年來,在圖像處理中應用尤

    2024年02月04日
    瀏覽(22)
  • 基于【EasyDL】【圖像分類】實現(xiàn)農(nóng)作物病害識別小程序

    基于【EasyDL】【圖像分類】實現(xiàn)農(nóng)作物病害識別小程序

    內(nèi)容、數(shù)據(jù)集來源:基于飛槳的農(nóng)作物病害智能識別系統(tǒng) - 飛槳AI Studio ????????聯(lián)合國糧食及農(nóng)業(yè)組織的一份報告表明,每年農(nóng)業(yè)生產(chǎn)的自然損失中有三分之一以上是由農(nóng)業(yè)病蟲害造成的,使這些成為當前影響農(nóng)業(yè)生產(chǎn)和農(nóng)業(yè)生產(chǎn)的最重要因素。需要考慮的農(nóng)業(yè)病蟲害眾多

    2024年02月05日
    瀏覽(29)
  • 【Intel 黑客松大賽】基于YOLO的雜草-農(nóng)作物檢測分類系統(tǒng)

    【Intel 黑客松大賽】基于YOLO的雜草-農(nóng)作物檢測分類系統(tǒng)

    科技是人類歷史發(fā)展最具革命性的關(guān)鍵力量,而科技創(chuàng)新將是贏得未來發(fā)展主動權(quán)的必然選擇。 如今,新一輪科技革命和產(chǎn)業(yè)革命正蓬勃興起。它不再是單一科學領(lǐng)域、技術(shù)領(lǐng)域的突破,而是在 信息技術(shù)、人工智能、新能源、新材料、生物醫(yī)藥 等多領(lǐng)域、多賽道競相迸發(fā)。

    2024年02月13日
    瀏覽(24)
  • 基于Python+djangoAI 農(nóng)作物病蟲害預警系統(tǒng)智能識別系統(tǒng)設計與實現(xiàn)(源碼&教程)

    基于Python+djangoAI 農(nóng)作物病蟲害預警系統(tǒng)智能識別系統(tǒng)設計與實現(xiàn)(源碼&教程)

    ? ? 隨著科技的發(fā)展,機器學習技術(shù)在各個領(lǐng)域中的應用越來越廣泛。在農(nóng)業(yè)領(lǐng)域,機器學習技術(shù)的應用有助于提高農(nóng)作物的產(chǎn)量和質(zhì)量,降低農(nóng)業(yè)生產(chǎn)的成本。本文針對農(nóng)作物健康識別問題,提出一種基于機器學習方法的農(nóng)作健康識別系統(tǒng),以實現(xiàn)對農(nóng)作物生長狀況的監(jiān)測

    2024年02月11日
    瀏覽(20)
  • 基于卷積神經(jīng)網(wǎng)絡的農(nóng)作物病蟲害圖像識別(Opencv,Pytorch,Tensorflow,MobileNetV3)

    最近做了一個農(nóng)作物蟲害圖像識別的程序,在此分享一下。本文用到的深度學習框架為Tensorflow2,Opencv等等!使用的數(shù)據(jù)集共有61種類別,分別代表不同的蟲害類別。使用的網(wǎng)絡模型為moblienetv3. Bi 設 Dai 坐 效果視頻如下所示: 農(nóng)作物蟲害圖像識別 代碼如下所示:

    2024年02月11日
    瀏覽(21)
  • 農(nóng)作物數(shù)據(jù)分析

    ,表中文名,表英文名,字段中文名,字段英文名,字段類型,字段描述,字段權(quán)限,字段權(quán)限描述,字段權(quán)限類型 0,cropinfo,作物信息表,作物ID,cropid,UUIDField, 1,cropinfo,作物信息表,作物名稱,cropname,CharField, 2,cropinfo,作物信息表,品種,variety,CharField, 3,cropinfo,作物信息表,種植日期,plantingdate,Date

    2024年04月16日
    瀏覽(29)
  • 基于深度學習的高精度農(nóng)作物機器與行人目標檢測系統(tǒng)(PyTorch+Pyside6+YOLOv5模型)

    基于深度學習的高精度農(nóng)作物機器與行人目標檢測系統(tǒng)(PyTorch+Pyside6+YOLOv5模型)

    摘要:基于深度學習的高精度農(nóng)作物機器與行人目標檢測系統(tǒng)可用于日常生活中或野外來檢測與定位農(nóng)作物機器與行人目標,利用深度學習算法可實現(xiàn)圖片、視頻、攝像頭等方式的農(nóng)作物機器與行人目標檢測識別,另外支持結(jié)果可視化與圖片或視頻檢測結(jié)果的導出。本系統(tǒng)采

    2024年02月16日
    瀏覽(90)
  • 高光譜 | 礦物識別和分類標簽數(shù)據(jù)制作、農(nóng)作物病蟲害數(shù)據(jù)分類、土壤有機質(zhì)含量回歸與制圖、木材含水量評估和制圖

    高光譜 | 礦物識別和分類標簽數(shù)據(jù)制作、農(nóng)作物病蟲害數(shù)據(jù)分類、土壤有機質(zhì)含量回歸與制圖、木材含水量評估和制圖

    本課程提供一套基于Python編程工具的高光譜數(shù)據(jù)處理方法和應用案例。 本課程涵蓋高光譜遙感的基礎、方法和實踐?;A篇以學員為中心,用通俗易懂的語言解釋高光譜的基本概念和理論,旨在幫助學員深入理解科學原理。方法篇結(jié)合Python編程工具,專注于解決高頻技術(shù)難題

    2024年02月12日
    瀏覽(37)
  • 基于YOLOV8模型的農(nóng)作機器和行人目標檢測系統(tǒng)(PyTorch+Pyside6+YOLOv8模型)

    基于YOLOV8模型的農(nóng)作機器和行人目標檢測系統(tǒng)(PyTorch+Pyside6+YOLOv8模型)

    摘要:基于YOLOV8模型的農(nóng)作機器和行人目標檢測系統(tǒng)可用于日常生活中檢測與定位農(nóng)作機和行人目標,利用深度學習算法可實現(xiàn)圖片、視頻、攝像頭等方式的目標檢測,另外本系統(tǒng)還支持圖片、視頻等格式的結(jié)果可視化與結(jié)果導出。本系統(tǒng)采用YOLOv8目標檢測算法訓練數(shù)據(jù)集,

    2024年02月10日
    瀏覽(25)
  • Yolov8工業(yè)缺陷檢測:基于鋁片表面的缺陷檢測算法,VanillaBlock和MobileViTAttention助力檢測,實現(xiàn)暴力漲點 |2023最新成果,創(chuàng)新度很強

    Yolov8工業(yè)缺陷檢測:基于鋁片表面的缺陷檢測算法,VanillaBlock和MobileViTAttention助力檢測,實現(xiàn)暴力漲點 |2023最新成果,創(chuàng)新度很強

    目錄 1.工件缺陷數(shù)據(jù)集介紹 ?1.2數(shù)據(jù)集劃分通過split_train_val.py得到trainval.txt、val.txt、test.txt?? ?1.2 通過voc_label.py得到適合yolov8訓練需要的 2.訓練結(jié)果對比 ?2.1?華為諾亞2023極簡的神經(jīng)網(wǎng)絡模型 VanillaNet---VanillaBlock助力檢測,實現(xiàn)暴力漲點 ?2.2?MobileViTAttention助力小目標檢測

    2024年02月13日
    瀏覽(24)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包