国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【論文閱讀】Weighted Boxes Fusion(WBF)模型融合原理解讀

這篇具有很好參考價值的文章主要介紹了【論文閱讀】Weighted Boxes Fusion(WBF)模型融合原理解讀。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

論文地址:https://arxiv.org/pdf/1910.13302.pdf

代碼地址:GitHub - ZFTurbo/Weighted-Boxes-Fusion: Set of methods to ensemble boxes from different object detection models, including implementation of "Weighted boxes fusion (WBF)" method.

1. NMS(Non-Maximum Suppression)

原理

(1)將所有獲得的候選框按得分進行降序排列;

(2)選取得分最高的候選框作為基準,分別計算所有剩余候選框與該基準框的IoU(交并比),將IoU高于閾值的候選框進行剔除;

(3)在保留的非基準候選框中,重復第(2)步,直到所有的候選框都被當作基準框。最終剩下的候選框即為預測結(jié)果。

【缺點】

(1)需要手動設置閾值,且閾值會直接對結(jié)果產(chǎn)生影響;

(2)難以區(qū)分多個重疊度較高的目標。

【論文閱讀】Weighted Boxes Fusion(WBF)模型融合原理解讀
當IoU閾值為0.5時,只有一個目標框會被保留,但實際存在多個目標

2. Soft-NMS

【原理】

NMS算法比較強硬,超過閾值就剔除,低于閾值直接保留。所以當閾值較高時,容易造成誤檢,抑制效果不明顯;當閾值較低時,容易產(chǎn)生漏檢。因此就出現(xiàn)了soft-nms。

【論文閱讀】Weighted Boxes Fusion(WBF)模型融合原理解讀
soft-nms偽代碼,相對NMS增加了得分懲罰

soft-nms通過IoU的值對候選框的得分進行懲罰衰減,不是直接去除候選框。衰減的策略有兩種,一種是使用1-IoU與得分的乘積作為衰減后的值,第二種是高斯懲罰函數(shù)。

【論文閱讀】Weighted Boxes Fusion(WBF)模型融合原理解讀
NMS的得分函數(shù),IoU高于閾值直接將得分設置為0
【論文閱讀】Weighted Boxes Fusion(WBF)模型融合原理解讀
soft-nms的第一種衰減策略,IoU大于閾值的目標得分會收到懲罰
【論文閱讀】Weighted Boxes Fusion(WBF)模型融合原理解讀
soft-nms的高斯懲罰函數(shù)

【缺點】最終還是刪除了部分預測框的結(jié)果,不能充分利用所有候選框的信息。

3. Weighted boxes fusion

【原理】假設有N個模型的輸出結(jié)果:

(1)將所有模型的預測結(jié)果添加到列表B中,并對B按置信度得分C進行排序;

(2)聲明一個空列表L和F。其中,L用來存放邊界框簇,每個位置可以存在多個邊界框;F用來存放融合后的邊界框,每個位置只能有一個邊界框。F中每個位置的邊界框是L中對應位置邊界框簇融合后的結(jié)果。

(3)循環(huán)執(zhí)行:逐個遍歷B中的預測結(jié)果,在列表F中找到與之相匹配的框(IoU大于指定閾值,這里設置的閾值是0.55)。

(4)如果F中沒有與之匹配的框,則將B中的這個框添加到列表L和F中作為一個新的簇,然后處理B中的下一個框。

(5)如果F中的第pos個框與之匹配,那么將B中的這個框添加到列表L中的第pos個簇中。

(6)用列表L[pos]的所有T個邊界框重新計算F[pos]的邊界框坐標和置信度得分。置信度得分C是所有T個邊界框置信度得分的均值,邊界框坐標由原始坐標與置信度得分加權(quán)計算得到。

【論文閱讀】Weighted Boxes Fusion(WBF)模型融合原理解讀

【論文閱讀】Weighted Boxes Fusion(WBF)模型融合原理解讀

?【簡單畫了個示例】

【論文閱讀】Weighted Boxes Fusion(WBF)模型融合原理解讀
匹配第一個元素a

?文章來源地址http://www.zghlxwxcb.cn/news/detail-495105.html

【論文閱讀】Weighted Boxes Fusion(WBF)模型融合原理解讀
匹配第二個元素b

?

【論文閱讀】Weighted Boxes Fusion(WBF)模型融合原理解讀
匹配第三個元素c

?

【論文閱讀】Weighted Boxes Fusion(WBF)模型融合原理解讀
匹配第四個元素d

?

【論文閱讀】Weighted Boxes Fusion(WBF)模型融合原理解讀
匹配第五個元素e

到了這里,關于【論文閱讀】Weighted Boxes Fusion(WBF)模型融合原理解讀的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權(quán),不承擔相關法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 圖像融合論文閱讀:IFCNN: A general image fusion framework based on convolutional neural network

    圖像融合論文閱讀:IFCNN: A general image fusion framework based on convolutional neural network

    @article{zhang2020ifcnn, title={IFCNN: A general image fusion framework based on convolutional neural network}, author={Zhang, Yu and Liu, Yu and Sun, Peng and Yan, Han and Zhao, Xiaolin and Zhang, Li}, journal={Information Fusion}, volume={54}, pages={99–118}, year={2020}, publisher={Elsevier} } 論文級別:SCI A1 影響因子:18.6 ?? 該論文是【

    2024年02月03日
    瀏覽(22)
  • 圖像融合論文閱讀:SwinFuse: A Residual Swin Transformer Fusion Network for Infrared and Visible Images

    圖像融合論文閱讀:SwinFuse: A Residual Swin Transformer Fusion Network for Infrared and Visible Images

    @article{wang2022swinfuse, title={SwinFuse: A residual swin transformer fusion network for infrared and visible images}, author={Wang, Zhishe and Chen, Yanlin and Shao, Wenyu and Li, Hui and Zhang, Lei}, journal={IEEE Transactions on Instrumentation and Measurement}, volume={71}, pages={1–12}, year={2022}, publisher={IEEE} } 論文級別:SCI A2/Q1 影響因

    2024年04月23日
    瀏覽(38)
  • 圖像融合論文閱讀:LRRNet: A Novel Representation Learning Guided Fusion Network for Infrared and Visible Imag

    圖像融合論文閱讀:LRRNet: A Novel Representation Learning Guided Fusion Network for Infrared and Visible Imag

    @ARTICLE{10105495, author={Li, Hui and Xu, Tianyang and Wu, Xiao-Jun and Lu, Jiwen and Kittler, Josef}, journal={IEEE Transactions on Pattern Analysis and Machine Intelligence}, title={LRRNet: A Novel Representation Learning Guided Fusion Network for Infrared and Visible Images}, year={2023}, volume={45}, number={9}, pages={11040-11052}, doi={10.1109/TPAMI.2

    2024年01月21日
    瀏覽(23)
  • 論文閱讀綜述:自動駕駛感知的多模態(tài)傳感器融合Multi-modal Sensor Fusion for Auto Driving Perception: A Survey

    論文閱讀綜述:自動駕駛感知的多模態(tài)傳感器融合Multi-modal Sensor Fusion for Auto Driving Perception: A Survey

    題目 :Multi-modal Sensor Fusion for Auto Driving Perception: A Survey 用于自動駕駛感知的多模態(tài)傳感器融合:綜述 鏈接 :https://arxiv.org/abs/2202.02703 只翻譯了個人認為比較重要的東西,有些官方話就省了。這篇文章通俗易懂,不過綜述都是標記文獻[xx]干了啥,其實咱也不知道他具體是咋

    2023年04月08日
    瀏覽(30)
  • 論文閱讀 Improved Appliance Classification in NILM Using Weighted RCNN (recurrence graph)

    論文閱讀 Improved Appliance Classification in NILM Using Weighted RCNN (recurrence graph)

    Publisher: Energies Publising Date: 2020 MOTIVATION OF READING: 1. zero-crossing method for data preprocessing. 2.? recurrence graph (RG). Probelm statement:? the performance of V–I-based approaches is still unsatisfactory as it is still not distinctive enough to recognize devices that fall into the same category. Methodology:? an appliance recognition

    2024年01月22日
    瀏覽(24)
  • 【圖像融合】Dif-Fusion:基于擴散模型的紅外/可見圖像融合方法

    【圖像融合】Dif-Fusion:基于擴散模型的紅外/可見圖像融合方法

    顏色在人類的視覺感知中起著重要的作用,反映了物體的光譜。然而, 現(xiàn)有的紅外和可見光圖像融合方法很少探索如何直接處理多光譜/通道數(shù)據(jù),并實現(xiàn)較高的彩色保真度 。本文提出了一種 利用擴散模型diffusion來生成多通道輸入數(shù)據(jù)的分布 ,提高了多源信息聚合的能力和

    2024年02月09日
    瀏覽(103)
  • 論文閱讀 Stepwise Feature Fusion: Local Guides Global

    論文閱讀 Stepwise Feature Fusion: Local Guides Global

    我在找論文時發(fā)現(xiàn),把自己的分割模型命名為ssformer的有兩個:,一個論文SSformer: A Lightweight Transformer for Semantic Segmentation中提出的一種輕量級Transformer模型,結(jié)構(gòu)如下 這個結(jié)構(gòu)很簡單,就是在用MLP層處理一下不同層的swin transformer block特征,然后融合。 這個沒什么太多好說的

    2024年03月16日
    瀏覽(28)
  • CLIP原理解讀——大模型論文閱讀筆記一

    CLIP原理解讀——大模型論文閱讀筆記一

    通過自然語言處理來的一些監(jiān)督信號,可以去訓練一個遷移效果很好的視覺模型。 論文的作者團隊收集了一個超級大的圖像文本配對的數(shù)據(jù)集,有400 million個圖片文本的配對, 模型最大用了ViT-large,提出了CLIP(Contrastive Language-Image Pre-training),是一種從自然語言監(jiān)督中學習

    2024年02月08日
    瀏覽(35)
  • MiniGPT-4原理解讀——大模型論文閱讀筆記三

    MiniGPT-4原理解讀——大模型論文閱讀筆記三

    論文:https://arxiv.org/pdf/2304.10592v1.pdf 代碼:https://github.com/vision-cair/minigpt-4 GPT-4展示了非凡的多模態(tài)能力,比如直接從手寫文本生成網(wǎng)站,以及識別圖像中的幽默元素。這些特性在以前的視覺語言模型中很少見。我們認為GPT-4具有先進的多模態(tài)生成能力的主要原因在于利用了更

    2024年02月11日
    瀏覽(28)
  • BLIP2原理解讀——大模型論文閱讀筆記二

    BLIP2原理解讀——大模型論文閱讀筆記二

    論文:https://arxiv.org/abs/2301.12597 代碼:https://github.com/salesforce/LAVIS/tree/main/projects/blip2 端到端訓練視覺語言模型需要大尺度模型及大規(guī)模數(shù)據(jù),該過程成本大,本文提出方法基于現(xiàn)有高質(zhì)量視覺模型及語言大模型進行聯(lián)合訓練,為減少計算量及防止遺忘,作者對預訓練模型進行

    2024年02月09日
    瀏覽(24)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包