国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【OpenVINO】基于 OpenVINO Python API 部署 RT-DETR 模型

這篇具有很好參考價值的文章主要介紹了【OpenVINO】基于 OpenVINO Python API 部署 RT-DETR 模型。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

目錄
  • 1. RT-DETR
  • 2. OpenVINO
  • 3. 環(huán)境配置
    • 3.1 模型下載環(huán)境
    • 3.2 模型部署環(huán)境
  • 4. 模型下載與轉換
    • 4.1 PaddlePaddle模型下載
    • 4.2 IR模型轉換
  • 5. Python代碼實現(xiàn)
    • 5.1 模型推理流程實現(xiàn)
  • 6. 預測結果展示
  • 7. 總結

? RT-DETR是在DETR模型基礎上進行改進的,一種基于 DETR 架構的實時端到端檢測器,它通過使用一系列新的技術和算法,實現(xiàn)了更高效的訓練和推理,我們將將在Python、C++、C# 三個平臺實現(xiàn)OpenVINO 部署RT-DETR模型實現(xiàn)深度學習推理加速, 在本文中,我們將首先介紹基于 OpenVINO Python API 部署 RT-DETR 模型。
該項目所使用的全部代碼已經在GitHub上開源,并且收藏在OpenVINO-CSharp-API項目里,項目所在目錄鏈接為:

https://github.com/guojin-yan/OpenVINO-CSharp-API/tree/csharp3.0/tutorial_examples

也可以直接訪問該項目,項目鏈接為:

https://github.com/guojin-yan/RT-DETR-OpenVINO.git

項目首發(fā)網址為:基于 OpenVINO? Python API 部署 RT-DETR 模型 | 開發(fā)者實戰(zhàn)

1. RT-DETR

? 飛槳在去年 3 月份推出了高精度通用目標檢測模型 PP-YOLOE ,同年在 PP-YOLOE 的基礎上提出了 PP-YOLOE+。而繼 PP-YOLOE 提出后,MT-YOLOv6、YOLOv7、DAMO-YOLO、RTMDet 等模型先后被提出,一直迭代到今年開年的 YOLOv8。
【OpenVINO】基于 OpenVINO Python API 部署 RT-DETR 模型

? YOLO 檢測器有個較大的待改進點是需要 NMS 后處理,其通常難以優(yōu)化且不夠魯棒,因此檢測器的速度存在延遲。DETR是一種不需要 NMS 后處理、基于 Transformer 的端到端目標檢測器。百度飛槳正式推出了——RT-DETR (Real-Time DEtection TRansformer) ,一種基于 DETR 架構的實時端到端檢測器,其在速度和精度上取得了 SOTA 性能。

【OpenVINO】基于 OpenVINO Python API 部署 RT-DETR 模型

? RT-DETR是在DETR模型基礎上進行改進的,它通過使用一系列新的技術和算法,實現(xiàn)了更高效的訓練和推理。具體來說,RT-DETR具有以下優(yōu)勢:

  • 1、實時性能更佳:RT-DETR采用了一種新的注意力機制,能夠更好地捕獲物體之間的關系,并減少計算量。此外,RT-DETR還引入了一種基于時間的注意力機制,能夠更好地處理視頻數(shù)據(jù)。
  • 2、精度更高:RT-DETR在保證實時性能的同時,還能夠保持較高的檢測精度。這主要得益于RT-DETR引入的一種新的多任務學習機制,能夠更好地利用訓練數(shù)據(jù)。
  • 3、更易于訓練和調參:RT-DETR采用了一種新的損失函數(shù),能夠更好地進行訓練和調參。此外,RT-DETR還引入了一種新的數(shù)據(jù)增強技術,能夠更好地利用訓練數(shù)據(jù)。
    【OpenVINO】基于 OpenVINO Python API 部署 RT-DETR 模型

2. OpenVINO

? 英特爾發(fā)行版 OpenVINO?工具套件基于oneAPI 而開發(fā),可以加快高性能計算機視覺和深度學習視覺應用開發(fā)速度工具套件,適用于從邊緣到云的各種英特爾平臺上,幫助用戶更快地將更準確的真實世界結果部署到生產系統(tǒng)中。通過簡化的開發(fā)工作流程, OpenVINO?可賦能開發(fā)者在現(xiàn)實世界中部署高性能應用程序和算法。
【OpenVINO】基于 OpenVINO Python API 部署 RT-DETR 模型

? OpenVINO? 2023.1于2023年9月18日發(fā)布,該工具包帶來了挖掘生成人工智能全部潛力的新功能。生成人工智能的覆蓋范圍得到了擴展,通過PyTorch*等框架增強了體驗,您可以在其中自動導入和轉換模型。大型語言模型(LLM)在運行時性能和內存優(yōu)化方面得到了提升。聊天機器人、代碼生成等的模型已啟用。OpenVINO更便攜,性能更高,可以在任何需要的地方運行:在邊緣、云中或本地。

3. 環(huán)境配置

? 在該項目中主要包括兩個環(huán)境的配置,一個是模型的下載,另一個是模型轉換與部署,為了更好的大家復現(xiàn)該項目,所以提供主要的環(huán)境配置:

3.1 模型下載環(huán)境

paddlepaddle:2.5.1
imageio:2.31.5
imgaug:0.4.0
onnx=1.13.0
opencv-python=4.5.5.64
paddle2onnx:0.5
paddledet

3.2 模型部署環(huán)境

Numpy:1.26.0
opencv-python:4.8.1.78
openvino:2023.1.0
openvino-telemetry:2023.2.0 
pillow:10.0.1 
python:3.10.13

4. 模型下載與轉換

? PaddleDetection 提供了預訓練模型以及模型訓練教程,大家可以基于該教程訓練自己的模型。在該項目中我們基于預訓練模型展開部署案例測試,下面我們根據(jù)官方教程導出推理模型。

4.1 PaddlePaddle模型下載

? 首先參考PaddleDetection安裝文檔安裝PaddlePaddle和PaddleDetection,其中PaddlePaddle要安裝最新版本才可以導出RT-DETR模型。安裝完成后,通過命令行下載該模型:

cd PaddleDetection
python tools/export_model.py -c configs/rtdetr/rtdetr_r50vd_6x_coco.yml -o weights=https://bj.bcebos.com/v1/paddledet/models/rtdetr_r50vd_6x_coco.pdparams trt=True --output_dir=output_inference

? 下表為導出模型輸入輸出節(jié)點信息:
【OpenVINO】基于 OpenVINO Python API 部署 RT-DETR 模型

? 通過該表,我們可以看出,該模型存在三個輸入與兩個輸出,其中輸入“im_shape”與“scale_factor”節(jié)點信息主要是該模型集成了部分后處理內容,如果大家對這種多輸入的模型使用不太習慣,在下次文章中,我們將講解如何個導出并部署不含后處理的模型部署流程。
? 因此該模型中比較關鍵的節(jié)點為“image”圖片數(shù)據(jù)輸入以及“reshape2_95.tmp_0”輸出節(jié)點,其中模型輸出的格式為: [clasid, scores, x, y, w, h]。

4.2 IR模型轉換

? 接下來我們將模型轉換為IR格式,首先將模型轉ONNX格式:

paddle2onnx --model_dir=./output_inference/rtdetr_r50vd_6x_coco/ --model_filename model.pdmodel --params_filename model.pdiparams --opset_version 16 --save_file rtdetr_r50vd_6x_coco.onnx

? 由于導出來的模型是動態(tài)形狀,未固定bath_size信息,所以我們可以通過OpenVINO模型優(yōu)化工具對模型的輸入形狀進行設置,命令如下:

ovc rtdetr_r50vd_6x_coco.onnx –input “ image[1,3,640,640], im_shape[1,2], scale_factor[1,2]”

? 最后我們可以獲取到轉憨厚的模型“ rtdetr_r50vd_6x_coco.xml”以及“rtdetr_r50vd_6x_coco.bin”文件。

5. Python代碼實現(xiàn)

5.1 模型推理流程實現(xiàn)

在Python代碼中我們定義了一個RT-DETR模型推理方法:

def rtdert_infer(model_path, image_path, device_name, lable_path, postprocess=True):

? 該方法主要實現(xiàn)了RT-DETR模型推理全流程,包括模型讀取與加載、文件的讀取與預處理、模型推理、結果處理以及結果展示。方法輸入為:

  • model_path:推理模型路徑
  • image_path:預測圖片路徑
  • device_name:加速推理設備名稱
  • lable_path,:識別類別文件
  • postprocess:模型是否包含后處理,在本文中我們只講解包含后處理的模型,因此默認為True。

(1) 加載推理模型
? 這一步主要實現(xiàn)初始化Core、讀取本地模型以及將模型編譯到本地,代實現(xiàn)代碼如下述代碼所示:

ie_core = Core()
model = ie_core.read_model(model=model_path)
compiled_model = ie_core.compile_model(model=model, device_name=device_name)

(2) 預處理圖片數(shù)據(jù)
? 這一步主要對讀取的本地圖片數(shù)據(jù)進行處理,在此處我們定義了一個RtdetrProcess Class專門用于處理RT-DETR模型的輸入輸出數(shù)據(jù),代碼實現(xiàn)如下所示:

image = cv.imread(image_path)
rtdetr_process = RtdetrProcess([640,640],lable_path)
im, im_info= rtdetr_process.preprocess(image)

(3) 加載推理數(shù)據(jù)和模型推理
? 這一步主要實現(xiàn)模型推理數(shù)據(jù)的加載以及進行模型推理,由于我們預測的模型是自帶后處理的模型,因此模型輸入有三個,分別是“im_shape”、“scale_factor”和“ image“。

  • im_shape:表示模型的輸入形狀,此處輸入為[640, 640];
  • scale_factor:表示圖片的縮放比,為模型輸入/圖像形狀;
  • image:表示圖像歸一化后的數(shù)據(jù)矩陣,形狀為[1, 3, 640, 640];、
    最后將模型輸入字典帶入到編譯好的模型中進行模型推理,獲取推理結果。
inputs = dict()
inputs["image"] = np.array(im).astype('float32')
inputs["scale_factor"] = np.array(im_info['scale_factor']).reshape(1,2).astype('float32')
inputs["im_shape"] = np.array([640.0,640.0]).reshape(1,2).astype('float32')
results = compiled_model(inputs=inputs)

(4) 處理推理結果
? 上一步中已經獲取到的模型推理結果,最后將模型推理結果帶入到我們定義中的后處理方法中,左后獲取模型預測結果。

re = rtdetr_process.postprocess(results[compiled_model.output(0)])
new_image=rtdetr_process.draw_box(image,re)
cv.imshow("result",new_image)
cv.waitKey(0)

1.5.2 模型數(shù)據(jù)處理方法實現(xiàn)

  1. 定義RtdetrProcess
class RtdetrProcess(object):
def __init__(self, target_size, label_path=None, threshold=0.5, interp=cv.INTER_LINEAR):
    self.im_info = dict()
    self.target_size =target_size
    self.interp = interp
    self.threshold = threshold
    if label_path is None:
       self.labels = []
       self.flabel = False
    else:
        self.labels = self.read_lable(label_path=label_path)
        self.flabel = True
  1. 輸入數(shù)據(jù)處理方法
def preprocess(self,im):
    assert len(self.target_size) == 2
    assert self.target_size[0] > 0 and self.target_size[1] > 0
    origin_shape = im.shape[:2]
    resize_h, resize_w = self.target_size
    im_scale_y = resize_h / float(origin_shape[0])
    im_scale_x = resize_w / float(origin_shape[1])
    out_im = cv.cvtColor(im,cv.COLOR_BGR2RGB)
    out_im = cv.resize(
        out_im.astype('float32'),
        None,
        None,
        fx=im_scale_x,
        fy=im_scale_y,
        interpolation=self.interp)
    self.im_info['im_shape'] = np.array(im.shape[:2]).astype('float32')
    self.im_info['scale_factor'] = np.array([im_scale_y, im_scale_x]).astype('float32')
    scale = 1.0 / 255.0
    out_im *= scale
    out_im = out_im.transpose((2, 0, 1)).copy()
    return  np.expand_dims(out_im.astype('float32'),0), self.im_info
  1. 預測結果數(shù)據(jù)處理方法
def postprocess(self,scores,bboxs=None):
    results = []
    if bboxs is None:
        scores = np.array(scores).astype('float32')
        for l in scores:
            if(l[1]>=self.threshold):
                re = dict()
                re["clsid"]=int(l[0])
                if(self.flabel):
                    re["label"]=self.labels[int(l[0])]
                else:
                    re["label"]=int(l[0])
                re["score"]=l[1]
                bbox=[l[2],l[3],l[4],l[5]]
                re["bbox"]=bbox
                results.append(re)
    else:
        scores = np.array(scores).astype('float32')
        bboxs = np.array(bboxs).astype('float32')
        for s,b in zip(scores,bboxs):
            s = self.sigmoid(s)
            if(np.max(np.array(s)>=self.threshold)):
                ids = np.argmax(np.array(s))
                re = dict()
                re["clsid"]=int(ids)
                if(self.flabel):
                    re["label"]=self.labels[int(ids)]
                else:
                    re["label"]=int(ids)
                re["score"]=s[ids]
                cx=(b[0]*640.0)/self.im_info["scale_factor"][1]
                cy=(b[1]*640.0)/self.im_info["scale_factor"][0]
                w=(b[2]*640.0)/self.im_info["scale_factor"][1]
                h=(b[3]*640.0)/self.im_info["scale_factor"][0]

                bbox=[cx-w/2.0,
                        cy-h/2.0,
                        cx+w/2.0,
                        cy+h/2.0]
                re["bbox"]=bbox
                results.append(re)
    return results

6. 預測結果展示

? 最后通過上述代碼,我們最終可以直接實現(xiàn)RT-DETR模型的推理部署,RT-DETR與訓練模型采用的是COCO數(shù)據(jù)集,最終我們可以獲取預測后的圖像結果,如圖所示:

【OpenVINO】基于 OpenVINO Python API 部署 RT-DETR 模型

? 上圖中展示了RT-DETR模型預測結果,同時,我們對模型圖里過程中的關鍵信息以及推理結果進行了打?。?mark hidden color="red">文章來源:http://www.zghlxwxcb.cn/news/detail-783737.html

[INFO]  This is an RT-DETR model deployment case using Python!
[INFO]  Model path: E:\Model\rtdetr_r50vd_6x_coco.onnx
[INFO]  Device name: CPU
[INFO]  The input path: E:\GitSpace\RT-DETR-OpenVINO\image\000000570688.jpg
[INFO]  class_id:0, label:person, confidence:0.9284, left_top:[215.03,327.88],right_bottom:[259.24,469.64]
[INFO]  class_id:0, label:person, confidence:0.9232, left_top:[260.34,343.99],right_bottom:[309.42,461.80]
[INFO]  class_id:0, label:person, confidence:0.8929, left_top:[402.26,346.80],right_bottom:[451.54,479.55]
[INFO]  class_id:33, label:kite, confidence:0.8382, left_top:[323.52,159.82],right_bottom:[465.93,214.78]
[INFO]  class_id:0, label:person, confidence:0.8342, left_top:[294.05,384.59],right_bottom:[354.15,443.96]
[INFO]  class_id:0, label:person, confidence:0.8284, left_top:[518.88,360.37],right_bottom:[583.88,480.00]
[INFO]  class_id:33, label:kite, confidence:0.8281, left_top:[282.11,217.29],right_bottom:[419.96,267.66]
[INFO]  class_id:33, label:kite, confidence:0.8043, left_top:[330.01,64.70],right_bottom:[389.58,86.40]
[INFO]  class_id:33, label:kite, confidence:0.8016, left_top:[242.46,124.74],right_bottom:[263.87,135.74]
[INFO]  class_id:0, label:person, confidence:0.7972, left_top:[456.74,369.06],right_bottom:[508.27,479.42]
[INFO]  class_id:33, label:kite, confidence:0.7970, left_top:[504.63,195.20],right_bottom:[523.44,214.82]
[INFO]  class_id:33, label:kite, confidence:0.7681, left_top:[460.08,251.92],right_bottom:[479.02,269.19]
[INFO]  class_id:33, label:kite, confidence:0.7601, left_top:[116.23,178.53],right_bottom:[137.02,190.61]
[INFO]  class_id:0, label:person, confidence:0.7330, left_top:[154.12,380.38],right_bottom:[210.76,421.32]
[INFO]  class_id:0, label:person, confidence:0.6998, left_top:[26.77,340.99],right_bottom:[58.48,425.10]
[INFO]  class_id:33, label:kite, confidence:0.6895, left_top:[430.29,29.91],right_bottom:[450.06,44.32]
[INFO]  class_id:33, label:kite, confidence:0.6739, left_top:[363.20,120.95],right_bottom:[375.84,130.11]
[INFO]  class_id:33, label:kite, confidence:0.6130, left_top:[176.50,236.77],right_bottom:[256.62,258.32]
[INFO]  class_id:0, label:person, confidence:0.6001, left_top:[497.35,380.34],right_bottom:[529.73,479.49]
[INFO]  class_id:33, label:kite, confidence:0.5956, left_top:[97.84,316.90],right_bottom:[156.75,360.25]
[INFO]  class_id:33, label:kite, confidence:0.5730, left_top:[221.56,264.66],right_bottom:[342.60,312.92]
[INFO]  class_id:33, label:kite, confidence:0.5555, left_top:[161.12,193.06],right_bottom:[171.45,199.78]
[INFO]  class_id:33, label:kite, confidence:0.5332, left_top:[171.17,317.08],right_bottom:[228.08,357.65]
[INFO]  class_id:33, label:kite, confidence:0.5322, left_top:[218.97,178.13],right_bottom:[451.95,241.61]

7. 總結

? 在本項目中,我們介紹了OpenVINO Python API 部署自帶后處理的RT-DETR模型的案例,并結合該模型的處理方式封裝完整的代碼案例,實現(xiàn)了在 Intel 平臺使用OpenVINO 加速深度學習模型,有助于大家以后落地RT-DETR模型在工業(yè)上的應用。為了更好地大家落地RT-DETR模型,我們不僅開發(fā)了在Python、C++、C# 三個平臺上的案例代碼,還結合大家的模型部署習慣對該模型進行了裁剪,實現(xiàn)了去除掉后處理的單輸入模型的部署案例。
? 在本文中。由于篇幅有限,對于其他編程平臺的實現(xiàn)以及不包含后處理的模型的部署案例,將在后續(xù)的文章中推出,請大家關注本平臺后續(xù)發(fā)布的文章:《基于 OpenVINO C++ API 部署 RT-DETR 模型》以及《基于 OpenVINO Python C# 部署 RT-DETR 模型》。如果大家有興趣,可以先關注本項目代碼倉庫,獲取項目實現(xiàn)源碼。文章來源地址http://www.zghlxwxcb.cn/news/detail-783737.html

到了這里,關于【OpenVINO】基于 OpenVINO Python API 部署 RT-DETR 模型的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!

本文來自互聯(lián)網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • DETR系列:RT-DETR(一) 論文解析

    DETR系列:RT-DETR(一) 論文解析

    論文:《DETRs Beat YOLOs on Real-time Object Detection》 2023.4 DETRs Beat YOLOs on Real-time Object Detection:https://arxiv.org/pdf/2304.08069.pdf 源碼地址:https://github.com/PaddlePaddle/PaddleDetection/tree/develop/configs/rtdetr 本文是RT0-DETR的論文解析,詳細部署請查看DETR系列:RT-DETR實戰(zhàn)部署 第一行是YOLO系列算法

    2024年02月05日
    瀏覽(22)
  • RT-DETR算法改進:最新Inner-IoU損失函數(shù),輔助邊界框回歸的IoU損失,提升RT-DETR檢測器精度

    ?? 本篇內容 :RT-DETR算法改進:最新Inner-IoU損失函數(shù),輔助邊界框回歸的IoU損失,提升RT-DETR檢測器精度 ??本博客 改進源代碼改進 適用于 RT-DETR目標檢測算法 (ultralytics項目版本) 按步驟操作運行改進后的代碼即可?????? ??改進 RT-DETR 目標檢測算法專屬|芒果專欄

    2024年02月19日
    瀏覽(20)
  • 加速44%!RT-DETR量化無損壓縮優(yōu)秀實戰(zhàn)

    加速44%!RT-DETR量化無損壓縮優(yōu)秀實戰(zhàn)

    RT-DETR 模型是飛槳目標檢測套件 PaddleDetection 最新發(fā)布的 SOTA 目標檢測模型。其是一種基于 DETR 架構的端到端目標檢測器,在速度和精度上均取得了 SOTA 性能。在實際部署中,為了追求“更準、更小、更快”的效率能力,本文使用飛槳模型壓縮工具 PaddleSlim 中的自動壓縮工具(

    2024年02月09日
    瀏覽(24)
  • RT-DETR原理與簡介(干翻YOLO的最新目標檢測項目)

    RT-DETR原理與簡介(干翻YOLO的最新目標檢測項目)

    RT-DETR是一種實時目標檢測模型,它結合了兩種經典的目標檢測方法:Transformer和DETR(Detection Transformer)。Transformer是一種用于序列建模的神經網絡架構,最初是用于自然語言處理,但已經被證明在計算機視覺領域也非常有效。DETR是一種端到端的目標檢測模型,它將目標檢測任

    2024年02月10日
    瀏覽(18)
  • 簡單聊聊目標檢測新范式RT-DETR的骨干:HGNetv2

    簡單聊聊目標檢測新范式RT-DETR的骨干:HGNetv2

    【前言】 本文版權屬于GiantPandaCV,未經許可,請勿轉賬! 前幾天瘋狂刷屏的RT-DETR賺足了眼球,在精度和速度上體現(xiàn)的優(yōu)勢和性價比遠遠高于YOLO,而今年ChatGPT、Sam的出現(xiàn),也讓一些吃瓜群眾知乎CNN沒有未來了,今天的文章,我們簡單聊一聊RT-DETR的骨干網絡,HGNetv2。 一、R

    2023年04月27日
    瀏覽(21)
  • RT-DETR論文閱讀筆記(包括YOLO版本訓練和官方版本訓練)

    RT-DETR論文閱讀筆記(包括YOLO版本訓練和官方版本訓練)

    論文地址: RT-DETR論文地址 代碼地址: RT-DETR官方下載地址 大家如果想看更詳細訓練、推理、部署、驗證等教程可以看我的另一篇博客里面有更詳細的介紹 內容回顧: 詳解RT-DETR網絡結構/數(shù)據(jù)集獲取/環(huán)境搭建/訓練/推理/驗證/導出/部署? 目錄 一、介紹? 二、相關工作 2.1、實

    2024年02月03日
    瀏覽(19)
  • 【RT-DETR有效改進】輕量化CNN網絡MobileNetV1改進特征提取網絡

    【RT-DETR有效改進】輕量化CNN網絡MobileNetV1改進特征提取網絡

    ??歡迎大家訂閱本專欄,一起學習RT-DETR??? ?? 本篇文章給大家?guī)淼母倪M機制是 MobileNetV1 ,其是專為移動和嵌入式視覺應用設計的輕量化網絡結構。這些模型基于簡化的架構,并利用深度可分離卷積構建輕量級深度神經網絡,其 引入了兩個簡單的全局超參數(shù) ,用于在延

    2024年01月19日
    瀏覽(36)
  • 【RT-DETR有效改進】華為 | Ghostnetv1一種專為移動端設計的特征提取網絡

    【RT-DETR有效改進】華為 | Ghostnetv1一種專為移動端設計的特征提取網絡

    ??歡迎大家訂閱本專欄,一起學習RT-DETR??? ?? 本文給大家?guī)淼奶卣魈崛【W絡是華為 | Ghostnetv1其是一種專為移動端設計的特征提取網絡,網絡模型非常的小,其推理速度非??欤瑢τ谧非髽O致FPS的讀者來說其是一個非常好的選擇,其網絡效果也是完爆經典模型MobileNet系列

    2024年01月21日
    瀏覽(31)
  • 【RT-DETR有效改進】華為 | GhostnetV2移動端的特征提取網絡效果完爆MobileNet系列

    【RT-DETR有效改進】華為 | GhostnetV2移動端的特征提取網絡效果完爆MobileNet系列

    ?? 歡迎大家訂閱本專欄,一起學習RT-DETR ??? 本文給大家?guī)淼母倪M機制是華為移動端模型GhostNetV2,華為 GhostNetV2 是為 移動應用設計的輕量級卷積神經網絡(CNN) ,旨在提供更快的推理速度,其引入了一種硬件友好的注意力機制,稱為DFC注意力。這個注意力機制是基于全

    2024年01月22日
    瀏覽(30)
  • 【RT-DETR有效改進】ShapeIoU、InnerShapeIoU關注邊界框本身的IoU(包含二次創(chuàng)新)

    【RT-DETR有效改進】ShapeIoU、InnerShapeIoU關注邊界框本身的IoU(包含二次創(chuàng)新)

    ??歡迎大家訂閱本專欄,一起學習RT-DETR??? 本文給大家?guī)淼母倪M機制是ShapeIoU其是一種關注邊界框本身形狀和尺度的邊界框回歸方法(IoU),同時本文的內容包括過去到現(xiàn)在的百分之九十以上的損失函數(shù)的實現(xiàn),使用方法非常簡單,在本文的末尾還會教大家在改進模型時

    2024年01月16日
    瀏覽(22)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包