国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

基于DETR (DEtection TRansformer)開發(fā)構(gòu)建MSTAR雷達(dá)影像目標(biāo)檢測系統(tǒng)

這篇具有很好參考價(jià)值的文章主要介紹了基于DETR (DEtection TRansformer)開發(fā)構(gòu)建MSTAR雷達(dá)影像目標(biāo)檢測系統(tǒng)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

關(guān)于DETR相關(guān)的實(shí)踐在之前的文章中很詳細(xì)地介紹過,感興趣的話可以自行移步閱讀即可:

《DETR (DEtection TRansformer)基于自建數(shù)據(jù)集開發(fā)構(gòu)建目標(biāo)檢測模型超詳細(xì)教程》

《書接上文——DETR評(píng)估可視化》

基于MSTAR雷達(dá)影像數(shù)據(jù)開發(fā)構(gòu)建目標(biāo)檢測系統(tǒng),在我前面的文章中也有過實(shí)踐,主要是基于YOLO系列的模型開發(fā)的模型,感興趣的話可以自行移步閱讀即可:

《基于YOLOv7開發(fā)構(gòu)建MSTAR雷達(dá)影像目標(biāo)檢測系統(tǒng)》

《基于yolov5n的輕量級(jí)MSTAR遙感影像目標(biāo)檢測系統(tǒng)設(shè)計(jì)開發(fā)實(shí)戰(zhàn)》

本文的主要目的是想要基于DETR這一新穎的檢測范式來開發(fā)構(gòu)建MSTAR數(shù)據(jù)的目標(biāo)檢測系統(tǒng),首先看下效果圖:

基于DETR (DEtection TRansformer)開發(fā)構(gòu)建MSTAR雷達(dá)影像目標(biāo)檢測系統(tǒng),transformer,目標(biāo)檢測,深度學(xué)習(xí)

?基于DETR開發(fā)訓(xùn)練自有數(shù)據(jù)集的超詳細(xì)教程可以參考上面的博文,這里就不再贅述了。

數(shù)據(jù)集實(shí)例如下所示:

基于DETR (DEtection TRansformer)開發(fā)構(gòu)建MSTAR雷達(dá)影像目標(biāo)檢測系統(tǒng),transformer,目標(biāo)檢測,深度學(xué)習(xí)

?轉(zhuǎn)化處理后數(shù)據(jù)集如下所示:

基于DETR (DEtection TRansformer)開發(fā)構(gòu)建MSTAR雷達(dá)影像目標(biāo)檢測系統(tǒng),transformer,目標(biāo)檢測,深度學(xué)習(xí)

?終端執(zhí)行下面命令即可啟動(dòng)訓(xùn)練:

python main.py --dataset_file "coco" --coco_path "/0000/coco" --epoch 100 --lr=1e-4 --batch_size=32 --num_workers=0 --output_dir="outputs" --resume="weights/detr_r50_11.pth"

訓(xùn)練日志輸出如下所示:

基于DETR (DEtection TRansformer)開發(fā)構(gòu)建MSTAR雷達(dá)影像目標(biāo)檢測系統(tǒng),transformer,目標(biāo)檢測,深度學(xué)習(xí)

訓(xùn)練完成截圖如下所示:

基于DETR (DEtection TRansformer)開發(fā)構(gòu)建MSTAR雷達(dá)影像目標(biāo)檢測系統(tǒng),transformer,目標(biāo)檢測,深度學(xué)習(xí)

?從評(píng)估指標(biāo)結(jié)果上來看跟YOLO系列的模型還是要相差不少的。

借助于可視化組件,接下來對(duì)訓(xùn)練過程進(jìn)行可視化,如下所示:

基于DETR (DEtection TRansformer)開發(fā)構(gòu)建MSTAR雷達(dá)影像目標(biāo)檢測系統(tǒng),transformer,目標(biāo)檢測,深度學(xué)習(xí)

?接下來對(duì)精確率、召回率和PR曲線進(jìn)行可視化,如下所示:

【Precision曲線】
精確率曲線(Precision-Recall Curve)是一種用于評(píng)估二分類模型在不同閾值下的精確率性能的可視化工具。它通過繪制不同閾值下的精確率和召回率之間的關(guān)系圖來幫助我們了解模型在不同閾值下的表現(xiàn)。
精確率(Precision)是指被正確預(yù)測為正例的樣本數(shù)占所有預(yù)測為正例的樣本數(shù)的比例。召回率(Recall)是指被正確預(yù)測為正例的樣本數(shù)占所有實(shí)際為正例的樣本數(shù)的比例。

【Recall曲線】
召回率曲線(Recall Curve)是一種用于評(píng)估二分類模型在不同閾值下的召回率性能的可視化工具。它通過繪制不同閾值下的召回率和對(duì)應(yīng)的精確率之間的關(guān)系圖來幫助我們了解模型在不同閾值下的表現(xiàn)。
召回率(Recall)是指被正確預(yù)測為正例的樣本數(shù)占所有實(shí)際為正例的樣本數(shù)的比例。召回率也被稱為靈敏度(Sensitivity)或真正例率(True Positive Rate)。

【PR曲線】
精確率-召回率曲線(Precision-Recall Curve)是一種用于評(píng)估二分類模型性能的可視化工具。它通過繪制不同閾值下的精確率(Precision)和召回率(Recall)之間的關(guān)系圖來幫助我們了解模型在不同閾值下的表現(xiàn)。
精確率是指被正確預(yù)測為正例的樣本數(shù)占所有預(yù)測為正例的樣本數(shù)的比例。召回率是指被正確預(yù)測為正例的樣本數(shù)占所有實(shí)際為正例的樣本數(shù)的比例

基于DETR (DEtection TRansformer)開發(fā)構(gòu)建MSTAR雷達(dá)影像目標(biāo)檢測系統(tǒng),transformer,目標(biāo)檢測,深度學(xué)習(xí)

?最后實(shí)際推理測試模型的檢測性能,如下所示:

基于DETR (DEtection TRansformer)開發(fā)構(gòu)建MSTAR雷達(dá)影像目標(biāo)檢測系統(tǒng),transformer,目標(biāo)檢測,深度學(xué)習(xí)

?結(jié)果實(shí)例如下所示:

基于DETR (DEtection TRansformer)開發(fā)構(gòu)建MSTAR雷達(dá)影像目標(biāo)檢測系統(tǒng),transformer,目標(biāo)檢測,深度學(xué)習(xí)

?結(jié)果詳情如下所示:文章來源地址http://www.zghlxwxcb.cn/news/detail-642501.html

[["6", 0.9954103827476501, [186, 310, 287, 431]], ["6", 0.9959670305252075, [188, 308, 287, 429]], ["4", 0.999398946762085, [202, 187, 303, 307]], ["8", 0.9981775283813477, [229, 509, 318, 620]]]

到了這里,關(guān)于基于DETR (DEtection TRansformer)開發(fā)構(gòu)建MSTAR雷達(dá)影像目標(biāo)檢測系統(tǒng)的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Transformer實(shí)戰(zhàn)-系列教程15:DETR 源碼解讀2(整體架構(gòu):DETR類)

    有任何問題歡迎在下面留言 本篇文章的代碼運(yùn)行界面均在Pycharm中進(jìn)行 本篇文章配套的代碼資源已經(jīng)上傳 點(diǎn)我下載源碼 DETR 算法解讀 DETR 源碼解讀1(項(xiàng)目配置/CocoDetection類/ConvertCocoPolysToMask類) DETR 源碼解讀2(DETR類) DETR 源碼解讀3(位置編碼:Joiner類/PositionEmbeddingSine類)

    2024年02月20日
    瀏覽(25)
  • 【vision transformer】DETR原理及代碼詳解(一)

    【vision transformer】DETR原理及代碼詳解(一)

    ? 論文:?https://arxiv.org/pdf/2005.12872.pdf 代碼:?https://github.com/facebookresearch/detr?(pytorch) https://github.com/BR-IDL/PaddleViT/tree/develop/object_detection/DETR(PaddlePaddle) DETR 是vision transformer 中目標(biāo)檢測的開山之作,是 Facebook 團(tuán)隊(duì)于 2020 年提出的基于 Transformer 的端到端目標(biāo)檢測,克服了傳

    2024年02月08日
    瀏覽(23)
  • DETR-《End-to-End Object Detection with Transformers》論文精讀筆記

    DETR-《End-to-End Object Detection with Transformers》論文精讀筆記

    End-to-End Object Detection with Transformers 參考:跟著李沐學(xué)AI-DETR 論文精讀【論文精讀】 在摘要部分作者,主要說明了如下幾點(diǎn): DETR是一個(gè)端到端(end-to-end)框架,釋放了傳統(tǒng)基于CNN框架的一階段(YOLO等)、二階段(FasterRCNN等)目標(biāo)檢測器中需要大量的人工參與的步驟,例如:

    2024年02月11日
    瀏覽(30)
  • 【Paper Reading】DETR:End-to-End Object Detection with Transformers

    【Paper Reading】DETR:End-to-End Object Detection with Transformers

    Transformer已經(jīng)在NLP領(lǐng)域大展拳腳,逐步替代了LSTM/GRU等相關(guān)的Recurrent Neural Networks,相比于傳統(tǒng)的RNN,Transformer主要具有以下幾點(diǎn)優(yōu)勢 可解決長時(shí)序依賴問題,因?yàn)門ransformer在計(jì)算attention的時(shí)候是在全局維度進(jìn)行展開計(jì)算的,所以不存在長時(shí)序中的梯度消失等問題。 Transformer的

    2024年02月14日
    瀏覽(23)
  • 目標(biāo)檢測——detr源碼復(fù)現(xiàn)【 End-to-End Object Detection with Transformers】

    目標(biāo)檢測——detr源碼復(fù)現(xiàn)【 End-to-End Object Detection with Transformers】

    detr源碼地址 detr論文地址 自定義coco數(shù)據(jù)集 在github上面下載 鏈接:https://pan.baidu.com/s/1fmOYAOZ4yYx_rYquOS6Ycw 提取碼:74l5 生成自己所需要的權(quán)重文件 main.py 相應(yīng)位置根據(jù)下圖更改 model 目錄下面的 detr.py 文件相應(yīng)位置更改類別 num_classes detr的測試對(duì)于小物體的檢測不是很好,相比來

    2024年02月16日
    瀏覽(29)
  • 圖像 檢測 - DETR: End-to-End Object Detection with Transformers (arXiv 2020)

    圖像 檢測 - DETR: End-to-End Object Detection with Transformers (arXiv 2020)

    聲明:此翻譯僅為個(gè)人學(xué)習(xí)記錄 文章信息 標(biāo)題: DETR: End-to-End Object Detection with Transformers (arXiv 2020) 作者: Nicolas Carion*, Francisco Massa*, Gabriel Synnaeve, Nicolas Usunier, Alexander Kirillov, and Sergey Zagoruyko (* Equal contribution) 文章鏈接:https://arxiv.org/pdf/2005.12872.pdf 文章代碼:https://github.com

    2024年02月13日
    瀏覽(24)
  • 【Deformable DETR 論文+源碼解讀】Deformable Transformers for End-to-End Object Detection

    【Deformable DETR 論文+源碼解讀】Deformable Transformers for End-to-End Object Detection

    上一篇講完了DETR相關(guān)原理和源碼,打算繼續(xù)再學(xué)習(xí)DETR相關(guān)改進(jìn)。這次要解讀的是21年發(fā)表的一篇論文: ICLR 2021:Deformable DETR: Deformable Transformers for End-to-End Object Detection 。 先感謝這位知乎大佬,講的太細(xì)了: Deformable DETR: 基于稀疏空間采樣的注意力機(jī)制,讓DCN與Transformer一起玩

    2023年04月16日
    瀏覽(17)
  • DEFORMABLE DETR: DEFORMABLE TRANSFORMERS FOR END-TO-END OBJECT DETECTION 論文精讀筆記

    DEFORMABLE DETR: DEFORMABLE TRANSFORMERS FOR END-TO-END OBJECT DETECTION 論文精讀筆記

    DEFORMABLE DETR: DEFORMABLE TRANSFORMERS FOR END-TO-END OBJECT DETECTION 參考:AI-雜貨鋪-Transformer跨界CV又一佳作!Deformable DETR:超強(qiáng)的小目標(biāo)檢測算法! 摘要 摘要部分,作者主要說明了如下幾點(diǎn): 為了解決DETR中使用Transformer架構(gòu)在處理圖像特征圖時(shí)的局限性而導(dǎo)致的收斂速度慢,特征空間

    2024年02月10日
    瀏覽(19)
  • 【物體檢測快速入門系列 | 01 】基于Tensorflow2.x Object Detection API構(gòu)建自定義物體檢測器

    【物體檢測快速入門系列 | 01 】基于Tensorflow2.x Object Detection API構(gòu)建自定義物體檢測器

    這是機(jī)器未來的第1篇文章 原文首發(fā)地址:https://blog.csdn.net/RobotFutures/article/details/124745966 CSDN話題挑戰(zhàn)賽第1期 活動(dòng)詳情地址 :https://marketing.csdn.net/p/bb5081d88a77db8d6ef45bb7b6ef3d7f 參賽話題 :自動(dòng)駕駛技術(shù)學(xué)習(xí)記錄 話題描述 :自動(dòng)駕駛是當(dāng)前最火熱的技術(shù)之一,吸引了無數(shù)的開發(fā)者

    2023年04月10日
    瀏覽(23)
  • Transformer實(shí)戰(zhàn)-系列教程21:DETR 源碼解讀8 損失計(jì)算:(SetCriterion類)

    有任何問題歡迎在下面留言 本篇文章的代碼運(yùn)行界面均在Pycharm中進(jìn)行 本篇文章配套的代碼資源已經(jīng)上傳 點(diǎn)我下載源碼 DETR 算法解讀 DETR 源碼解讀1(項(xiàng)目配置/CocoDetection類/ConvertCocoPolysToMask類) DETR 源碼解讀2(DETR類) DETR 源碼解讀3(位置編碼:Joiner類/PositionEmbeddingSine類)

    2024年02月19日
    瀏覽(33)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包