国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

語義分割miou指標(biāo)計算詳解

這篇具有很好參考價值的文章主要介紹了語義分割miou指標(biāo)計算詳解。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

MIoU全稱為Mean Intersection over Union,平均交并比??勺鳛檎Z義分割系統(tǒng)性能的評價指標(biāo)。

  • P:Prediction預(yù)測值
  • G:Ground Truth真實值
    語義分割miou指標(biāo)計算詳解,圖像分割,計算機視覺,圖像分割
    其中IOU: 交并比就是該類的真實標(biāo)簽和預(yù)測值的交和并的比值
    語義分割miou指標(biāo)計算詳解,圖像分割,計算機視覺,圖像分割
    單類的交并比可以理解為下圖:
    語義分割miou指標(biāo)計算詳解,圖像分割,計算機視覺,圖像分割

1. 語義分割的評價指標(biāo)

True Positive (TP): 把正樣本成功預(yù)測為正。
True Negative (TN):把負(fù)樣本成功預(yù)測為負(fù)。
False Positive (FP):把負(fù)樣本錯誤地預(yù)測為正。
False Negative (FN):把正樣本錯誤的預(yù)測為負(fù)。

  • (1) Accuracy準(zhǔn)確率,指的是“預(yù)測正確的樣本數(shù)÷樣本數(shù)總數(shù)”。計算公式為:
    A c c u r a c y = T P + T N T P + T N + F P + F N Accuracy = \frac{TP+TN}{TP+TN+FP+FN} Accuracy=TP+TN+FP+FNTP+TN?

  • (2) Precision精確率或者精度,指的是預(yù)測為Positive的樣本,占所有預(yù)測樣本的比率
    P r e c i s i o n = T P T P + F P Precision= \frac{TP}{TP+FP} Precision=TP+FPTP?

  • (3)Recall召回率,指的是預(yù)測為Positive的樣本,占所有Positive樣本的比率
    P r e c i s i o n = T P P Precision= \frac{TP}{P} Precision=PTP?

  • (4) F1 score: 綜合考慮了precisionrecall兩方面的因素,做到了對于兩者的調(diào)和,即:既要“求精”也要“求全”,做到不偏科。

F 1 s c o r e = 2 ? p r e c i s i o n ? r e c a l l p r e c i s i o n + r e c a l l F1 score= \frac{2*precision*recall}{precision+recall} F1score=precision+recall2?precision?recall?

  • (5) MIOU 作為為語義分割最重要標(biāo)準(zhǔn)度量。其計算兩個集合的交集和并集之比,在語義分割的問題中,這兩個集合為真實值和預(yù)測值。在每個類上計算IoU,之后平均。計算公式如下
    M I O U = 1 k + 1 ∑ i = 0 k T P F N + F P + T P MIOU =\frac{1}{k+1}\sum_{i=0}^{k}\frac{TP}{FN+FP+TP} MIOU=k+11?i=0k?FN+FP+TPTP?
    等價于:
    M I O U = 1 k + 1 ∑ i = 0 k p i i ∑ j = 0 k p i j + ∑ j = 0 k p j i ? p i i MIOU=\frac{1}{k+1}\sum_{i=0}^{k}\frac{p_{ii}}{\sum_{j=0}^k p_{ij} + \sum_{j=0}^k p_{ji} -p_{ii}} MIOU=k+11?i=0k?j=0k?pij?+j=0k?pji??pii?pii??

其中: p i i p_{ii} pii? 真實為類別i,預(yù)測也為i的像素個數(shù),也就是正確預(yù)測的像素個數(shù)TP; p i j p_{ij} pij?表示真實為類別i,但預(yù)測為類別j的像素個數(shù),也就是FN p j i p_{ji} pji?表示真實為類別j,但預(yù)測為類別i的像素個數(shù), 也就是FP

注意: 對于多分類,TN為0 ,即沒有所謂的負(fù)樣本

2. 混淆矩陣計算

  • 計算MIoU,我們需要借助混淆矩陣來進行計算。
  • 混淆矩陣就是統(tǒng)計分類模型的分類結(jié)果,即:統(tǒng)計歸對類,歸錯類的樣本的個數(shù),然后把結(jié)果放在一個表里展示出來,這個表就是混淆矩陣
  • 每一列代表預(yù)測值(pred),每一行代表的是實際的類別(gt)
    語義分割miou指標(biāo)計算詳解,圖像分割,計算機視覺,圖像分割
  • 對角都對TP,橫看真實,豎看預(yù)測: 每一行之和,為該行對應(yīng)類(如Cat)的總數(shù);每一列之和為該列對應(yīng)類別的預(yù)測的總數(shù)。

2.1 np.bincount的使用

在計算混淆矩陣時,可以利用np.bincount函數(shù)方便我們計算。

numpy.bincount(x, weights=None, minlength=None)
  • 該方法返回每個索引值在x中出現(xiàn)的次數(shù)
  • 給一個向量x,x中最大的元素記為j,返回一個向量1行j+1列的向量y,y[i]代表i在x中出現(xiàn)的次數(shù)
#x中最大的數(shù)為7,那么它的索引值為0->7
x = np.array([0, 1, 1, 3, 2, 1, 7])
#索引0出現(xiàn)了1次,索引1出現(xiàn)了3次......索引5出現(xiàn)了0次......
np.bincount(x)
#因此,輸出結(jié)果為:array([1, 3, 1, 1, 0, 0, 0, 1])
  • minlength也是一個常用的參數(shù),表示輸出的數(shù)組長度至少為minlength,如果x中最大的元素加1大于數(shù)組長度,那么數(shù)組的長度以x中最大元素加1為準(zhǔn)(例如,如果數(shù)組中最大元素為3,minlength=5,那么數(shù)組的長度為5;如果數(shù)組中最大元素為7,minlength=5,那么數(shù)組的最大長度為7+1=8,這里之所以加1是因為元素0也占了一個索引)。舉個例子說明:
# a中最大的數(shù)為3,因此數(shù)組長度為4,那么它的索引值為0->3
a = np.array([2, 2, 1, 3 ])
# 本來數(shù)組的長度為4,但指定了minlength為7,因此現(xiàn)在數(shù)組長度為7(多的補0),所以現(xiàn)在它的索引值為0->6
np.bincount(x, minlength=7)
# 輸出結(jié)果為:array([0, 1, 2, 1, 0, 0, 0])
		
# a中最大的數(shù)為4,因此bin的數(shù)量為5,那么它的索引值為0->4
x = np.array([4, 2, 3, 1, 2])
# 數(shù)組的長度原本為5,但指定了minlength為1,因為5 > 1,所以這個參數(shù)不起作用,索引值還是0->4
np.bincount(x, minlength=1)
# 輸出結(jié)果為:array([0, 1, 2, 1,1])

2.2 混淆矩陣計算

# 設(shè)標(biāo)簽寬W,長H
def fast_hist(a, b, n):
    #--------------------------------------------------------------------------------#
    #   a是轉(zhuǎn)化成一維數(shù)組的標(biāo)簽,形狀(H×W,);b是轉(zhuǎn)化成一維數(shù)組的預(yù)測結(jié)果,形狀(H×W,)
    #--------------------------------------------------------------------------------#
    k = (a >= 0) & (a < n)
    #--------------------------------------------------------------------------------#
    #   np.bincount計算了從0到n**2-1這n**2個數(shù)中每個數(shù)出現(xiàn)的次數(shù),返回值形狀(n, n)
    #   返回中,寫對角線上的為分類正確的像素點
    #--------------------------------------------------------------------------------#
    return np.bincount(n * a[k].astype(int) + b[k], minlength=n ** 2).reshape(n, n)  
  • 產(chǎn)生n×n的混淆矩陣統(tǒng)計表
    • 參數(shù)a:即:真實的標(biāo)簽gt, 需要reshape為一行輸入
    • 參數(shù)b:即預(yù)測的標(biāo)簽pred,它是經(jīng)過argmax輸出的預(yù)測8位標(biāo)簽圖, 每個像素表示為類別索引(reshape為一行輸入),
    • 參數(shù)n:類別數(shù)cls_num

  • 首先過濾gt中,類別超過n的索引,確保gt的分類都包含在n個類別中
 k = (a >= 0) & (a < n)
  • 如果要去掉背景,不將背景計算在混淆矩陣,則可以寫為:
 k = (a > 0) & (a < n) #去掉了背景,假設(shè)0是背景

  • 然后利用np.bincount生成元素個數(shù)為n*n的數(shù)組,并且reshape n × n n \times n n×n的混淆矩陣,這樣確?;煜仃?code>行和列都為類別class的個數(shù)n
  • n*n數(shù)組中,每個元素的值,表示為0~n*n的索引值在x中出現(xiàn)的次數(shù),這樣就獲得了最終混淆矩陣。這里的x表示為n * a[k] + b[k] , 為啥這么定義呢?

舉例如下:將圖片的gt標(biāo)簽a和pred輸出圖片b,都轉(zhuǎn)換為一行; a和b中每個元素代表類別索引

語義分割miou指標(biāo)計算詳解,圖像分割,計算機視覺,圖像分割

  • 前面8, 9, 4, 7, 6都預(yù)測正確, 對于預(yù)測正確的像素來說,n * a + b就是對角線的值; 假設(shè)n=10,有10類。n * a + b就是88, 99, 44, 77, 66
  • 緊接著6預(yù)測成了5, 因此n * a + b就是65
  • 88, 99, 44, 77, 66就是對角線上的值(如下圖紅框,65就是預(yù)測錯誤,并且能真實反映把6預(yù)測成了5(如下圖藍(lán)框
    語義分割miou指標(biāo)計算詳解,圖像分割,計算機視覺,圖像分割

3. 語義分割指標(biāo)計算

語義分割miou指標(biāo)計算詳解,圖像分割,計算機視覺,圖像分割

圖 混淆矩陣

3.1 IOU計算

方式1(推薦)

計算每個類別的IOU計算:
I O U = T P F N + F P + T P IOU =\frac{TP}{FN+FP+TP} IOU=FN+FP+TPTP?

def per_class_iu(hist):
    return np.diag(hist) / np.maximum((hist.sum(1) + hist.sum(0) - np.diag(hist)), 1) 
  • 輸入hist 表示 2維的混淆矩陣,大小為n*n (n為類別數(shù))
  • 混淆矩陣對角線元素值,表示每個類別預(yù)測正確的數(shù)TP:
np.diag(hist)
  • 其中:混淆矩陣所對應(yīng)中,每一行為對應(yīng)類別(如類1)的統(tǒng)計值中,對角線位置為正常預(yù)測為該類別的統(tǒng)計值(TP),其他位置則是錯誤的將該類別預(yù)測為其他的類別FN: 因此每個類別的FP統(tǒng)計值為:
FN =hist.sum(1) -TP = hist.sum(1) - np.diag(hist)
  • 同理,預(yù)測為該類別所對應(yīng)的列中,對角線為正確預(yù)測,其他位置則是將其他類別錯誤的預(yù)測為該列所對應(yīng)的類別,也就是FP
FP =hist.sum(0) -TP = hist.sum(0) - np.diag(hist)

因此分母FN_FP+TP=np.maximum(hist.sum(1) + hist.sum(0) - np.diag(hist),1), 這里加上np.maximum確保了分母不為0

方式2
def IOU(pred,target,n_classes = args.num_class ):
    ious = []
    # ignore IOU for background class
    for cls in range(1,n_classes):
        pred_inds = pred == cls
        target_inds = target == cls
        # target_sum = target_inds.sum()
        intersection = (pred_inds[target_inds]).sum()
        union = pred_inds.sum() + target_inds.sum() - intersection
        if union == 0:
            ious.append(float('nan')) # If there is no ground truth,do not include in evaluation
        else:
            ious.append(float(intersection)/float(max(union,1)))
    return ious

參考:https://github.com/dilligencer-zrj/code_zoo/blob/master/compute_mIOU

3.2 Precision 計算

每個類別的Precision 計算如下:

P r e c i s i o n = T P T P + F P Precision= \frac{TP}{TP+FP} Precision=TP+FPTP?

def per_class_Precision(hist):
    return np.diag(hist) / np.maximum(hist.sum(0), 1) 
  • 其中 np.diag(hist) 為TP值,hist.sum(0)表示為 TP+FP, np.maximum確保確保分母不為0

3.3 總體的Accuracy計算

總體的Accuracy計算如下:

A c c u r a c y = T P + T N T P + T N + F P + F N Accuracy = \frac{TP+TN}{TP+TN+FP+FN} Accuracy=TP+TN+FP+FNTP+TN?
由于是多類別,沒有負(fù)樣本,因此TN為0。

def per_Accuracy(hist):
    return np.sum(np.diag(hist)) / np.maximum(np.sum(hist), 1) 

3.4 Recall 計算

recall指的是預(yù)測為Positive的樣本,占所有Positive樣本的比率
P r e c i s i o n = T P P Precision= \frac{TP}{P} Precision=PTP?文章來源地址http://www.zghlxwxcb.cn/news/detail-786651.html

def per_class_PA_Recall(hist):
    return np.diag(hist) / np.maximum(hist.sum(1), 1) 
  • 每一行統(tǒng)計值為該類別樣本的真實數(shù)量P, 因此P = hist.sum(1)

3.5 MIOU計算

def compute_mIoU(gt_dir, pred_dir, png_name_list, num_classes, name_classes=None):  
    print('Num classes', num_classes)  
    #-----------------------------------------#
    #   創(chuàng)建一個全是0的矩陣,是一個混淆矩陣
    #-----------------------------------------#
    hist = np.zeros((num_classes, num_classes))
    
    #------------------------------------------------#
    #   獲得驗證集標(biāo)簽路徑列表,方便直接讀取
    #   獲得驗證集圖像分割結(jié)果路徑列表,方便直接讀取
    #------------------------------------------------#
    gt_imgs     = [join(gt_dir, x + ".png") for x in png_name_list]  
    pred_imgs   = [join(pred_dir, x + ".png") for x in png_name_list]  

    #------------------------------------------------#
    #   讀取每一個(圖片-標(biāo)簽)對
    #------------------------------------------------#
    for ind in range(len(gt_imgs)): 
        #------------------------------------------------#
        #   讀取一張圖像分割結(jié)果,轉(zhuǎn)化成numpy數(shù)組
        #------------------------------------------------#
        pred = np.array(Image.open(pred_imgs[ind]))  
        #------------------------------------------------#
        #   讀取一張對應(yīng)的標(biāo)簽,轉(zhuǎn)化成numpy數(shù)組
        #------------------------------------------------#
        label = np.array(Image.open(gt_imgs[ind]))  

        # 如果圖像分割結(jié)果與標(biāo)簽的大小不一樣,這張圖片就不計算
        if len(label.flatten()) != len(pred.flatten()):  
            print(
                'Skipping: len(gt) = {:d}, len(pred) = {:d}, {:s}, {:s}'.format(
                    len(label.flatten()), len(pred.flatten()), gt_imgs[ind],
                    pred_imgs[ind]))
            continue

        #------------------------------------------------#
        #   對一張圖片計算21×21的hist矩陣,并累加
        #------------------------------------------------#
        hist += fast_hist(label.flatten(), pred.flatten(), num_classes)  
        # 每計算10張就輸出一下目前已計算的圖片中所有類別平均的mIoU值
        if name_classes is not None and ind > 0 and ind % 10 == 0: 
            print('{:d} / {:d}: mIou-{:0.2f}%; mPA-{:0.2f}%; Accuracy-{:0.2f}%'.format(
                    ind, 
                    len(gt_imgs),
                    100 * np.nanmean(per_class_iu(hist)),
                    100 * np.nanmean(per_class_PA_Recall(hist)),
                    100 * per_Accuracy(hist)
                )
            )
    #------------------------------------------------#
    #   計算所有驗證集圖片的逐類別mIoU值
    #------------------------------------------------#
    IoUs        = per_class_iu(hist)
    PA_Recall   = per_class_PA_Recall(hist)
    Precision   = per_class_Precision(hist)
    #------------------------------------------------#
    #   逐類別輸出一下mIoU值
    #------------------------------------------------#
    if name_classes is not None:
        for ind_class in range(num_classes):
            print('===>' + name_classes[ind_class] + ':\tIou-' + str(round(IoUs[ind_class] * 100, 2)) \
                + '; Recall (equal to the PA)-' + str(round(PA_Recall[ind_class] * 100, 2))+ '; Precision-' + str(round(Precision[ind_class] * 100, 2)))

    #-----------------------------------------------------------------#
    #   在所有驗證集圖像上求所有類別平均的mIoU值,計算時忽略NaN值
    #-----------------------------------------------------------------#
    print('===> mIoU: ' + str(round(np.nanmean(IoUs) * 100, 2)) + '; mPA: ' + str(round(np.nanmean(PA_Recall) * 100, 2)) + '; Accuracy: ' + str(round(per_Accuracy(hist) * 100, 2)))  
    return np.array(hist, np.int), IoUs, PA_Recall, Precision
  • 首先創(chuàng)建一個維度為(num_classes, num_classes)的空混淆矩陣hist
  • 遍歷pred_imgsgt_imgs, 將遍歷得到的每一張predlabel展平(flatten)到一維,輸入到fast_hist計算單張圖片預(yù)測的混淆矩陣,將每次的計算結(jié)果加到總的混淆矩陣hist
for ind in range(len(gt_imgs)): 
     #------------------------------------------------#
     #   讀取一張圖像分割結(jié)果,轉(zhuǎn)化成numpy數(shù)組
     #------------------------------------------------#
     pred = np.array(Image.open(pred_imgs[ind]))  
     #------------------------------------------------#
     #   讀取一張對應(yīng)的標(biāo)簽,轉(zhuǎn)化成numpy數(shù)組
     #------------------------------------------------#
     label = np.array(Image.open(gt_imgs[ind]))  

     # 如果圖像分割結(jié)果與標(biāo)簽的大小不一樣,這張圖片就不計算
     if len(label.flatten()) != len(pred.flatten()):  
         print(
             'Skipping: len(gt) = {:d}, len(pred) = {:d}, {:s}, {:s}'.format(
                 len(label.flatten()), len(pred.flatten()), gt_imgs[ind],
                 pred_imgs[ind]))
         continue

     #------------------------------------------------#
     #   對一張圖片計算21×21的hist矩陣,并累加
     #------------------------------------------------#
     hist += fast_hist(label.flatten(), pred.flatten(), num_classes) 
  • 計算10張就輸出一下目前已計算的圖片中所有類別平均的mIoU
# 每計算10張就輸出一下目前已計算的圖片中所有類別平均的mIoU值
  if name_classes is not None and ind > 0 and ind % 10 == 0: 
      print('{:d} / {:d}: mIou-{:0.2f}%; mPA-{:0.2f}%; Accuracy-{:0.2f}%'.format(
              ind, 
              len(gt_imgs),
              100 * np.nanmean(per_class_iu(hist)),
              100 * np.nanmean(per_class_PA_Recall(hist)),
              100 * per_Accuracy(hist)
          )
      )
  • 遍歷完成后,得到所有類別的Iou值IoUs以及PA_Recall Precision ,并逐類別輸出一下mIoU值
   if name_classes is not None:
        for ind_class in range(num_classes):
            print('===>' + name_classes[ind_class] + ':\tIou-' + str(round(IoUs[ind_class] * 100, 2)) \
                + '; Recall (equal to the PA)-' + str(round(PA_Recall[ind_class] * 100, 2))+ '; Precision-' + str(round(Precision[ind_class] * 100, 2)))
  • 最后在所有驗證集圖像上求所有類別平均的mIoU值
 print('===> mIoU: ' + str(round(np.nanmean(IoUs) * 100, 2)) + '; mPA: ' + str(round(np.nanmean(PA_Recall) * 100, 2)) + '; Accuracy: ' + str(round(per_Accuracy(hist) * 100, 2)))  

參考

  • https://github.com/bubbliiiing/deeplabv3-plus-pytorch/blob/main/utils/utils_metrics.py
  • https://github.com/dilligencer-zrj/code_zoo/blob/master/compute_mIOU
  • https://www.jianshu.com/p/42939bf83b8a

到了這里,關(guān)于語義分割miou指標(biāo)計算詳解的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 圖像分割評價指標(biāo):Dice和MIoU

    圖像分割評價指標(biāo):Dice和MIoU

    Dice用來衡量預(yù)測結(jié)果pred和標(biāo)簽label的相似度,公式如下圖所示,即兩個集合的交集/并集。 注意:對于多分類的分割任務(wù),網(wǎng)絡(luò)的輸出結(jié)果是多通道的,使用Dice計算準(zhǔn)確度需要將標(biāo)簽轉(zhuǎn)換為多通道的one_hot形式。 如果需要計算 dice loss ,只需要 1- dice_acc 即可。 可以借助 torc

    2024年02月02日
    瀏覽(19)
  • 語義分割混淆矩陣、 mIoU、mPA計算

    語義分割混淆矩陣、 mIoU、mPA計算

    需要會調(diào)試代碼的人自己改,小白直接運行會出錯 這是我從自己的大文件里摘取的一部分代碼,可以運行,只是要改的文件地址path比較多,遇到雙引號“”的地址注意一下,不然地址不對容易出錯 ?把?calculate.py和?utiles_metrics.py放在同一文件夾下,然后運行?calculate.py。 g

    2024年02月16日
    瀏覽(17)
  • 【計算機視覺 | 語義分割】干貨:語義分割常見算法介紹合集(一)

    【計算機視覺 | 語義分割】干貨:語義分割常見算法介紹合集(一)

    U-Net 是一種語義分割架構(gòu)。 它由收縮路徑和擴張路徑組成。 收縮路徑遵循卷積網(wǎng)絡(luò)的典型架構(gòu)。 它由兩個 3x3 卷積(未填充卷積)的重復(fù)應(yīng)用組成,每個卷積后跟一個修正線性單元 (ReLU) 和一個步長為 2 的 2x2 最大池化操作,用于下采樣。 在每個下采樣步驟中,我們將特征通

    2024年04月22日
    瀏覽(36)
  • 計算機視覺基礎(chǔ)(11)——語義分割和實例分割

    計算機視覺基礎(chǔ)(11)——語義分割和實例分割

    在這節(jié)課,我們將學(xué)習(xí) 語義分割和實例分割 。在語義分割中,我們需要重點掌握語義分割的 概念、常用數(shù)據(jù)集、評價指標(biāo)(IoU)以及經(jīng)典的語義分割方法(Deeplab系列) ;在實例分割中,需要知道實力分割可以近似看為“ 目標(biāo)檢測+語義分割 ”,需要知道 Mask R-CNN方法的計算

    2024年01月23日
    瀏覽(34)
  • 計算機視覺:語義分割理論及實戰(zhàn)

    計算機視覺:語義分割理論及實戰(zhàn)

    語義分割(Semantic Segmentation)是指將一張圖像分割成若干個區(qū)域,并對每個區(qū)域賦予語義標(biāo)簽的任務(wù)。它是計算機視覺中的一種重要技術(shù),被廣泛應(yīng)用于自動駕駛、醫(yī)學(xué)圖像分析、地理信息系統(tǒng)等領(lǐng)域。 與傳統(tǒng)的圖像分割任務(wù)不同,語義分割不僅需要將圖像分割成若干個區(qū)域

    2024年02月08日
    瀏覽(23)
  • 計算機視覺框架OpenMMLab(七):語義分割實戰(zhàn)

    計算機視覺框架OpenMMLab(七):語義分割實戰(zhàn)

    ????? 作者簡介: 大數(shù)據(jù)專業(yè)碩士在讀,CSDN人工智能領(lǐng)域博客專家,阿里云專家博主,專注大數(shù)據(jù)與人工智能知識分享。 公眾號: GoAI的學(xué)習(xí)小屋,免費分享書籍、簡歷、導(dǎo)圖等資料,更有交流群分享AI和大數(shù)據(jù),加群方式公眾號回復(fù)“加群”或??點擊鏈接。 ?? 專欄推

    2024年02月02日
    瀏覽(29)
  • 計算機視覺三大基本任務(wù):分類、檢測(定位)、分割(語義和實例)

    計算機視覺三大基本任務(wù):分類、檢測(定位)、分割(語義和實例)

    剛剛接觸計算機視覺時可能會對 不同的任務(wù)的區(qū)分 以及 網(wǎng)絡(luò)架構(gòu)的選擇 產(chǎn)生迷惑,因此,在此總結(jié)了相關(guān)的基礎(chǔ)知識。在本文中,我們試圖回答兩個問題: 不同任務(wù)要做的事情是什么,研究范疇是什么? 不同的任務(wù)需要選擇什么類型的網(wǎng)絡(luò)? 計算機視覺任務(wù)可以分為4大

    2024年02月05日
    瀏覽(40)
  • 【計算機視覺 | 語義分割】OVSeg:分割一切后,SAM又能分辨類別了,Meta/UTAustin提出全新開放類分割模型

    【計算機視覺 | 語義分割】OVSeg:分割一切后,SAM又能分辨類別了,Meta/UTAustin提出全新開放類分割模型

    前幾日,Meta 推出了「分割一切」AI 模型 Segment Anything,令網(wǎng)友直呼 CV 不存在了?! 而在另一篇被 CVPR 2023 收錄的論文中,Meta、UTAustin 聯(lián)合提出了新的開放語言風(fēng)格模型(open-vocabulary segmentation, OVSeg),它能讓 Segment Anything 模型知道所要分隔的類別。 論文地址: 從效果上來看

    2024年02月12日
    瀏覽(23)
  • 計算機設(shè)計大賽 深度學(xué)習(xí)人體語義分割在彈幕防遮擋上的實現(xiàn) - python

    計算機設(shè)計大賽 深度學(xué)習(xí)人體語義分割在彈幕防遮擋上的實現(xiàn) - python

    ?? 優(yōu)質(zhì)競賽項目系列,今天要分享的是 ?? 深度學(xué)習(xí)人體語義分割在彈幕防遮擋上的應(yīng)用 該項目較為新穎,適合作為競賽課題方向,學(xué)長非常推薦! ??學(xué)長這里給一個題目綜合評分(每項滿分5分) 難度系數(shù):3分 工作量:3分 創(chuàng)新點:3分 ?? 更多資料, 項目分享: https://gi

    2024年02月20日
    瀏覽(642)
  • 【計算機視覺 | 圖像分割】arxiv 計算機視覺關(guān)于圖像分割的學(xué)術(shù)速遞(8 月 30 日論文合集)

    Novis:端到端近在線視頻實例分割實例 直到最近,視頻實例分割(VIS)社區(qū)在以下共同信念下操作:離線方法通常優(yōu)于逐幀在線處理。然而,最近在線方法的成功質(zhì)疑這種信念,特別是對于具有挑戰(zhàn)性和長視頻序列。我們將這項工作理解為對最近觀察結(jié)果的反駁,并呼吁社區(qū)

    2024年02月09日
    瀏覽(94)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包