国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

計算機視覺——圖像視覺顯著性檢測

這篇具有很好參考價值的文章主要介紹了計算機視覺——圖像視覺顯著性檢測。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

目錄

系列文章目錄

零、問題描述

一、圖像顯著性檢測

1.定義

2.難點

二、常用評價標(biāo)準(zhǔn)和計算方法

1.綜述

2.ROS曲線詳述

2.1 混淆矩陣

2.2 ROC曲線簡介

2.3 ROC曲線繪制及其判別標(biāo)準(zhǔn)

2.4 ROC曲線補充

三、Fast and Efficient Saliency (FES)

1.算法簡介

2.項目導(dǎo)入與解析

3.FES注意預(yù)測實踐

4.評價結(jié)果

四、MSI-Net

1.算法簡介

2.項目導(dǎo)入與解析

3.MSI-Net注意預(yù)測實踐

3.1 環(huán)境搭建與配置

3.2 下載或?qū)霐?shù)據(jù)集

3.3 訓(xùn)練

3.4 測試(注意預(yù)測)

4.評價結(jié)果

4.1 評價標(biāo)準(zhǔn)代碼實現(xiàn)

4.2 MSI-Net評價

五、線上平臺與集成軟件

1.DeepGaze II

1.1 模型選擇

1.2 中心偏置設(shè)置

2.AttentionInsight集成軟件

六、匯總與對比

七、參考資料


系列文章目錄

完整代碼:李憶如 - Gitee.com

? ? 本系列博客重點在計算機視覺的概念原理與代碼實踐,不包含繁瑣的數(shù)學(xué)推導(dǎo)(有問題歡迎在評論區(qū)討論指出,或直接私信聯(lián)系我)。

第一章?計算機視覺——圖像去噪及直方圖均衡化(圖像增強)_@李憶如的博客??????

第二章?計算機視覺——車道線(路沿)檢測_@李憶如的博客-CSDN博客

第三章?計算機視覺——圖像視覺顯著性檢測?


梗概

? ? 本篇博客主要介紹圖像顯著性檢測(注意預(yù)測)定義、原理及其相關(guān)流程。探究并實踐不同數(shù)據(jù)集、不同平臺傳統(tǒng)顯著性檢測算法與深度學(xué)習(xí)的顯著性檢測算法,故選擇了Matlab下的傳統(tǒng)算法Fast and Efficient Saliency (FES)與Python下的深度學(xué)習(xí)算法MSI-Net進行實驗。此外,還在部分開源平臺進行了線上注意預(yù)測嘗試,另外使用了不同的評價標(biāo)準(zhǔn)對效果進行評價與對比(內(nèi)附數(shù)據(jù)、python、matlab代碼)


零、問題描述

? ? 請選擇一種基于圖像的注意預(yù)測算法,使用該算法進行圖像注意區(qū)域的預(yù)測,并使用注意預(yù)測的常用評價標(biāo)準(zhǔn)進行評價。在這里請給出方法簡介、原圖像、預(yù)測結(jié)果、評價結(jié)果。

參考鏈接:MIT Saliency Benchmark

????????? https://saliency.tuebingen.ai

一、圖像顯著性檢測

1.定義

? ? 視覺顯著性是指對于真實世界中的場景,人們會自動的識別出感興趣區(qū)域,并對感興趣的區(qū)域進行處理,忽略掉不感興趣的區(qū)域。

? ? 圖像的注意預(yù)測,也稱視覺顯著性檢測。過智能算法擬人的視覺系統(tǒng)特點,預(yù)測人類的視覺凝視點和眼動,提取圖像中的顯著區(qū)域(即人類感興趣的區(qū)域),是計算機視覺領(lǐng)域關(guān)鍵的圖像分析技術(shù)。部分圖像及其注意預(yù)測結(jié)果示例如圖1所示:

視覺顯著性算法,計算機視覺,python,opencv,人工智能,計算機視覺,matlab

圖1 部分圖像及其注意預(yù)測結(jié)果示例

2.難點

? ? 自1980TreismanGelade提出開創(chuàng)性的自底向上的注意力模型以來,涌現(xiàn)出大量的注意預(yù)測算法。主要可以分為兩個階段,第一階段為基于強度、顏色和方向等傳統(tǒng)尺度空間手工特征注意預(yù)測算法。第二個階段,隨著計算機神經(jīng)網(wǎng)絡(luò)技術(shù)的革新和發(fā)展,基于深度學(xué)習(xí)注意預(yù)測算法大量出現(xiàn)。

? ? 對于傳統(tǒng)注意預(yù)測算法,由于其特征提取和學(xué)習(xí)方法都以圖像本身空間特征為基礎(chǔ),缺乏多語義等深度特征,相較于人眼仍然具有較大差距,即并很難檢測到人眼注視信息包含的大量高級語義信息,在預(yù)測效果的提高上有局限。且不同人的注意力機制存在一定差異,在大部分傳統(tǒng)模型中未加入先驗信息,處理相對困難。

? ? 對于深度學(xué)習(xí)注意預(yù)測算法,卷積神經(jīng)網(wǎng)絡(luò)中具有下采樣的操作,會逐漸降低特征分辨率,并在此過程中丟失不同尺度包含的特征信息。且深度學(xué)習(xí)算法在神經(jīng)網(wǎng)絡(luò)的設(shè)計上針對不同任務(wù)需要不斷變更,算法較復(fù)雜。另外,深度學(xué)習(xí)模型一般存在可解釋性差的共性缺點,且對硬件環(huán)境要求較高,效率較低。

二、常用評價標(biāo)準(zhǔn)和計算方法

1.綜述

? ? 對于注意預(yù)測的常用評價標(biāo)準(zhǔn)是多方面的。

? ? 比如在經(jīng)典的評價標(biāo)準(zhǔn)中,可用KL距離來度量預(yù)測與真實分布的距離,接受者操作特性曲線(ROC曲線)來度量真假陽,將歸一化后預(yù)測人眼掃描路徑與真實路徑計算相關(guān)系數(shù)。

? ? 在論文實驗常用標(biāo)準(zhǔn)MIT/Tuebingen Saliency Benchmark中,使用IG、AUC、sAUC、NSS、CC、KLDiv、SIM指標(biāo)評價,從不同維度評價,指標(biāo)高則代表該方面注意預(yù)測能力較強,評價標(biāo)準(zhǔn)詳見:MIT/Tuebingen Saliency Benchmark。

? ? 在其他方面,可以基于顯著點評價,基于區(qū)域評價,主觀評價等。

2.ROS曲線詳述

? ? 本實驗以ROS曲線為例,詳細介紹一種注意預(yù)測的常用評價標(biāo)準(zhǔn)和計算方法。

2.1 混淆矩陣

? ? 對于二分類問題,可將樣本根據(jù)其真實類別與學(xué)習(xí)器預(yù)測類別的組合劃分為TP(true positive)、FP(false positive)、TN(true negative)FN(false negative)四種情況,TP+FP+TN+FN=樣本總數(shù),如圖2所示:

視覺顯著性算法,計算機視覺,python,opencv,人工智能,計算機視覺,matlab

圖2 混淆矩陣樣本劃分

? ? 其中,有如下三個定義須知,對應(yīng)的公式如圖3所示:

Ⅰ、真正率 TPR:預(yù)測為正例且實際為正例的樣本占所有正例樣本(真實結(jié)果為正樣本)的比例。

Ⅱ、假正率 FPR:預(yù)測為正例但實際為負例的樣本占所有負例樣本(真實結(jié)果為負樣本)的比例。

Ⅲ、特異性(真陰性率)TNR:是指實際為陰性的樣本中,判斷為陰性的比例。

視覺顯著性算法,計算機視覺,python,opencv,人工智能,計算機視覺,matlab

圖3 混淆矩陣三大相關(guān)公式計算

2.2 ROC曲線簡介

? ? ROC曲線對同一信號刺激的反應(yīng)在幾種不同的判定標(biāo)準(zhǔn)下所得的結(jié)果,用來度量真陽vs假陽,是一種比較分類模型可視化的工具。其中有如圖4其他四種常見評價標(biāo)準(zhǔn)計算方法:

視覺顯著性算法,計算機視覺,python,opencv,人工智能,計算機視覺,matlab

圖4 四種常見評價標(biāo)準(zhǔn)的計算方法

2.3 ROC曲線繪制及其判別標(biāo)準(zhǔn)

? ? 根據(jù)上述說明及混淆矩陣定義可知,ROC曲線的橫坐標(biāo)和縱坐標(biāo)是沒有相關(guān)性的,所以不能把ROC曲線當(dāng)做一個函數(shù)曲線來分析,應(yīng)該把ROC曲線看成無數(shù)個點,每個點代表一個分類器。橫坐標(biāo)為分類器的FPR,縱坐標(biāo)為分類器的TPR。引入例子如圖5所示:

視覺顯著性算法,計算機視覺,python,opencv,人工智能,計算機視覺,matlab?

圖5 ROC曲線繪制樣例

? ? 分析:由圖5所示,評價分類器好壞只需對比位置與相關(guān)參數(shù)。樣例中C'的性能最好。而B的準(zhǔn)確率只有0.5,幾乎是隨機分類。其中,圖中左上角坐標(biāo)為(1,0)的點為完美分類點(perfect classification),它代表所有的分類全部正確。

? ? 補充:實際ROC曲線繪制只需對多個分類器繪圖即可。

2.4 ROC曲線補充

? ? ROC分類器具體分類標(biāo)準(zhǔn)如圖6所示,優(yōu)點與作用如表1所示:

視覺顯著性算法,計算機視覺,python,opencv,人工智能,計算機視覺,matlab?

圖6 ROC分類標(biāo)準(zhǔn)

表1 ROC曲線優(yōu)點與作用

優(yōu)點

作用

1.簡單、直觀

1.查出一個分類器在某個閾值時對樣本的識別能力

2.對類分布的改變不敏感

2.選擇出某一診斷方法最佳的診斷界限值

3.可延申為其他評價標(biāo)準(zhǔn)

3. 比較兩種及以上不同診斷方法對疾病的識別能力大小

? ? 補充: AUC(Area Under Curve)也是注意預(yù)測常用評價標(biāo)準(zhǔn),被定義為ROC曲線下與坐標(biāo)軸圍成的面積,顯然這個面積的數(shù)值不會大于1。又由于ROC曲線一般都處于y=x這條直線的上方,所以AUC的取值范圍在0.5和1之間。AUC越接近1.0,檢測方法真實性越高;等于0.5時,則真實性最低,無應(yīng)用價值。

三、Fast and Efficient Saliency (FES)

? ? 本部分將使用FES算法進行圖像注意區(qū)域的預(yù)測,相關(guān)信息與設(shè)置如表2所示:

表2 FES算法相關(guān)信息與設(shè)置

官方數(shù)據(jù)集

CAT2000

相關(guān)論文

LNCS 6688 - Fast and Efficient Saliency Detection Using Sparse Sampling and Kernel Density Estimation (springer.com)

源碼地址

GitHub - hrtavakoli/FES: Code for Fast and efficient saliency detection using sparse sampling and kernel density estimation

語言

Matlab

1.算法簡介

? ? 注意預(yù)測在計算機視覺中獲得了大量的關(guān)注。在論文中,作者研究了使用中心-周圍方法的注意預(yù)測,樣例如圖7所示。提出的方法是基于在貝葉斯框架下估計局部特征對比的顯著性。所需的分布特別是使用稀疏抽樣和核密度估計來估計。此外,該方法的性質(zhì)隱含地考慮了文獻中所指的中心偏差

? ? 論文的方法在CAT2000上進行了評估,該數(shù)據(jù)集包含了人類眼睛的固定位置作為地面實況。結(jié)果表明,與最先進的方法相比,有5%以上的改進(2011)。此外,該方法足夠快,可以實時運行,論文使用FES進行注意預(yù)測前后的圖像樣例如圖8所示:

視覺顯著性算法,計算機視覺,python,opencv,人工智能,計算機視覺,matlab?

圖7 中心-周圍方法樣例

視覺顯著性算法,計算機視覺,python,opencv,人工智能,計算機視覺,matlab?

圖8 論文使用FES進行注意預(yù)測前后的圖像

2.項目導(dǎo)入與解析

? ? 進入github下載對應(yīng)項目,該項目包含的文件和目錄如表3所示:

表3 FES項目文件目錄

名稱

作用

calculateImageSaliency.p

計算單一比例的圖像顯著性

calculateFinalSaliency.m

計算多個比例的圖像顯著性

runSaliency.m(主文件)

一個顯示如何計算突出性的樣本文件

prior.mat

通過學(xué)習(xí)獲得的先驗

? ? 將項目導(dǎo)入Matlab中,觀察并解析代碼,總結(jié)算法流程如圖9:

視覺顯著性算法,計算機視覺,python,opencv,人工智能,計算機視覺,matlab?

圖9 FES在Matlab中的算法流程

3.FES注意預(yù)測實踐

? ? 按圖9中算法流程,先定義好待實驗圖像文件夾data與保存文件夾result,之后運行runSaliency.m。實驗中原圖像與預(yù)測圖像樣例如圖10所示:

視覺顯著性算法,計算機視覺,python,opencv,人工智能,計算機視覺,matlab?

圖10 FES注意預(yù)測前后圖像樣例

? ? 分析:在MatlabR2020a下運行FES對10張圖片進行注意預(yù)測,用時3.122s,符合在Fast and Efficient的特點。圖10中可見預(yù)測效果與原理相符,評價結(jié)果在后續(xù)詳述。

4.評價結(jié)果

? ? 為對FES算法的注意預(yù)測效果進行合理評價,本實驗使用論文實驗常用標(biāo)準(zhǔn)MIT/Tuebingen Saliency Benchmark,F(xiàn)ES論文在CAT2000數(shù)據(jù)集下給出的參考指標(biāo)如表4所示:

表4 FES參考預(yù)測效果指標(biāo)(CAT2000數(shù)據(jù)集)

AUC

sAuc

NSS

CC

KLDiv

SIM

0.8212

0.5450

1.6103

0.5799

2.6123

0.5255

? ? 由于評價體系官方依賴庫為pysaliency python library,尋找matlab相關(guān)依賴無果,故采用網(wǎng)絡(luò)方法單項實現(xiàn)不同指標(biāo)對FES的評估,參考文檔如下:

①AUS:AUC值計算(matlab) - zhouerba - 博客園 (cnblogs.com)

②sAuc:顯著性檢測(saliency detection)評價指標(biāo)之sAUC(shuffled AUC)的Matlab代碼實現(xiàn)_a18861227的博客-CSDN博客

③NSS:Matlab顯著性檢測模型性能度量之NSS_Mr.Q的博客-CSDN博客

④CC:Matlab 顯著性檢測模型性能度量線性相關(guān)系數(shù) CC_Mr.Q的博客-CSDN博客_相關(guān)系數(shù)cc

⑤KLDiv:KLDIV - File Exchange - MATLAB Central (mathworks.com)

⑥SIM:顯著性檢測SIM算法--Matlab_matlabsim-圖像處理代碼類資源-CSDN文庫

? ? 在將評價標(biāo)準(zhǔn)代碼接入matlab中后對于(3)中的樣例進行MIT/Tuebingen Saliency Benchmark評價,實驗結(jié)果與論文結(jié)果比較數(shù)據(jù)如表5所示,效果比較如圖11所示:

表5 論文與實驗中FES在不同評價標(biāo)準(zhǔn)下的數(shù)據(jù)匯總

視覺顯著性算法,計算機視覺,python,opencv,人工智能,計算機視覺,matlab?

視覺顯著性算法,計算機視覺,python,opencv,人工智能,計算機視覺,matlab?

圖11 論文與實驗中FES在不同評價標(biāo)準(zhǔn)下的效果對比

? ? 分析:由表5與圖11可見,在AUC、sAUC、NSS、KLDiv四個評價標(biāo)準(zhǔn)下,實驗數(shù)據(jù)略低于論文數(shù)據(jù),而在其他兩個評價標(biāo)準(zhǔn)下,實驗數(shù)據(jù)略高于論文數(shù)據(jù),差異的原因與數(shù)據(jù)集有一定的聯(lián)系,總體來說擬合效果較好,FES算法符合論文提出的高效、高評價效果(2011)的特點。

四、MSI-Net

? ? 本部分將使用MSI-Net算法進行圖像注意區(qū)域的預(yù)測,相關(guān)信息與設(shè)置如表6所示:

表6 MSI-Net算法相關(guān)信息與設(shè)置

官方數(shù)據(jù)集

MIT300

相關(guān)論文

main.pdf (sciencedirectassets.com)

源碼地址

GitHub - alexanderkroner/saliency: Contextual Encoder-Decoder Network for Visual Saliency Prediction [Neural Networks 2020]

語言(框架)

Pythontensorflow

參考文檔

圖像中的注意區(qū)域預(yù)測_Asionm的博客-CSDN博客_salicon數(shù)據(jù)集

1.算法簡介

? ? 注意預(yù)測任務(wù)需要檢測場景中存在的物體。為了開發(fā)穩(wěn)健的表征,必須在多個空間尺度上提取高層次的視覺特征,并輔以背景信息。在論文中,作者提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)的方法,該網(wǎng)絡(luò)在大規(guī)模的圖像分類任務(wù)中進行了預(yù)訓(xùn)練。該架構(gòu)形成了一個編碼器-解碼器結(jié)構(gòu),如圖12所示。并包括一個具有不同擴張率的多個卷積層的模塊,以平行捕捉多尺度特征。此外,我們將得到的表征與全局場景信息相結(jié)合,以準(zhǔn)確預(yù)測視覺顯著性。

? ? 論文的模型在兩個公共顯著性基準(zhǔn)的多個評估指標(biāo)上取得了有競爭力的一致結(jié)果,我們在五個數(shù)據(jù)集和選定的例子上證明了建議的方法的有效性。與最先進的方法(2020)相比,該網(wǎng)絡(luò)是基于一個輕量級的圖像分類骨干,因此為計算資源有限的應(yīng)用提供了一個合適的選擇,如(虛擬)機器人系統(tǒng),以估計人類在復(fù)雜自然場景中的固定。論文使用MSI-Net進行注意預(yù)測前后的圖像樣例如圖13所示:

視覺顯著性算法,計算機視覺,python,opencv,人工智能,計算機視覺,matlab

圖12 編碼器-解碼器架構(gòu)的模塊圖

? ? 補充:如圖12所示,VGG16主干被修改以考慮密集預(yù)測任務(wù)的要求,省略了最后兩個最大集合層的特征降采樣。然后,多級激活被轉(zhuǎn)發(fā)到ASPP模塊,該模塊在不同的空間尺度上并行地捕獲信息。最后,輸入的圖像尺寸通過解碼器網(wǎng)絡(luò)被恢復(fù)。卷積層下面的小寫字母表示相應(yīng)的特征圖的數(shù)量。

視覺顯著性算法,計算機視覺,python,opencv,人工智能,計算機視覺,matlab

圖13 論文使用MSI-Net進行注意預(yù)測前后的圖像

2.項目導(dǎo)入與解析

? ? 進入github下載對應(yīng)項目,該項目包含的文件及核心作用與環(huán)境配置如圖14所示,將項目導(dǎo)入Pycharm中,觀察并解析代碼,總結(jié)算法流程如圖15:

視覺顯著性算法,計算機視覺,python,opencv,人工智能,計算機視覺,matlab

視覺顯著性算法,計算機視覺,python,opencv,人工智能,計算機視覺,matlab

圖14 MSI-Net項目文件及核心作用與環(huán)境配置

視覺顯著性算法,計算機視覺,python,opencv,人工智能,計算機視覺,matlab

圖15 MSI-Net在Pycharm中的算法流程

3.MSI-Net注意預(yù)測實踐

3.1 環(huán)境搭建與配置

? ? 如圖14,安裝好對應(yīng)環(huán)境與相關(guān)依賴后才可以正常運行項目。在環(huán)境搭配于配置過程中遇到了如下幾個問題:

Ⅰ、缺少函數(shù)問題:在未作版本處理前,本人使用的環(huán)境為tensorflow2.10,在運行時會出現(xiàn)缺少函數(shù)問題,如圖16所示:

視覺顯著性算法,計算機視覺,python,opencv,人工智能,計算機視覺,matlab

視覺顯著性算法,計算機視覺,python,opencv,人工智能,計算機視覺,matlab

圖16 運行中的函數(shù)缺少問題

Ⅱ、tensorflow降級問題:為解決問題Ⅰ需做降級。由于本人使用的Python為3.8,不支持MSI-Net項目所需的tensorflow1.x版本,故在搜索資料后使用pip install --upgrade https://storage.googleapis.com/tensorflow/mac/cpu/tensorflow-1.14.0-py3-none-any.whl命令降低版本,如圖17所示:

視覺顯著性算法,計算機視覺,python,opencv,人工智能,計算機視覺,matlab

圖17 tensorflow強制降級

Ⅲ、環(huán)境選擇問題:在降級后仍然無法成功運行,在查閱github官方文檔后發(fā)現(xiàn)算法的運行同時提供GPU與CPU的形式運行(其默認為GPU運行),由于本人為tensorflow-cpu,所以需要修改config.py的“device”,如圖18所示:

視覺顯著性算法,計算機視覺,python,opencv,人工智能,計算機視覺,matlab

圖18 切換算法環(huán)境方法

3.2 下載或?qū)霐?shù)據(jù)集

? ? Github中MSI-Net項目默認是使用SALICON數(shù)據(jù)集,能夠自動抓取的數(shù)據(jù)集有``salicon, mit1003, cat2000, dutomron, pascals, osie, fiwi`。在運行訓(xùn)練代碼時會檢測數(shù)據(jù)集是否存在,若不存在會自動下載(本實驗選擇手動下載導(dǎo)入)。

3.3 訓(xùn)練

? ? 使用python main.py train命令即可開始訓(xùn)練,默認epoch = 10。

3.4 測試(注意預(yù)測)

? ? 使用③中訓(xùn)練好的模型,或者直接使用(論文)官網(wǎng)中作者中給定的參數(shù)進行測試,命令為python main.py test -d DATA -p PATH。其中DATA對應(yīng)的是用于訓(xùn)練時的數(shù)據(jù)集,若沒有事先訓(xùn)練的話,它會直接從網(wǎng)上下載已經(jīng)訓(xùn)練好的權(quán)重進行評估。而PATH對應(yīng)的是所要測試的圖片地址,可以是多張圖片也可以是單張圖片。最后訓(xùn)練得到的結(jié)果會放在 results/images/中。

? ? 實驗中原圖像與預(yù)測圖像樣例如圖19所示:

視覺顯著性算法,計算機視覺,python,opencv,人工智能,計算機視覺,matlab

圖19 MSI-Net注意預(yù)測前后圖像樣例

? ? 分析:在Pycharm2021下運行MSI-Net對10張圖片進行注意預(yù)測,用時4.712s(測試時間)。圖19中可見預(yù)測效果與原理相符,評價結(jié)果在后續(xù)詳述。

4.評價結(jié)果

? ? 為對MSI-Net算法的注意預(yù)測效果進行合理評價,本實驗使用論文實驗常用標(biāo)準(zhǔn)MIT/Tuebingen Saliency Benchmark,MSI-Net論文在MIT300數(shù)據(jù)集下給出的參考指標(biāo)如表7所示:

表7 MSI-Net參考預(yù)測效果指標(biāo)(MIT300數(shù)據(jù)集)

IG

AUC

sAuc

NSS

CC

KLDiv

SIM

0.9185

0.8738

0.7787

2.3053

0.7790

0.4232

0.6704

4.1 評價標(biāo)準(zhǔn)代碼實現(xiàn)

? ? 評價體系官方依賴庫為pysaliency python library,所以Python可以直接使用相關(guān)依賴,有如下兩種使用途徑

Ⅰ、直接利用源代碼進行注意預(yù)測評價:首先可以直接在github相關(guān)源上下載https://github.com/matthias-k/saliency-benchmarking,然后進行評估。

Ⅱ、直接使用pysaliency:利用pip工具進行安裝庫,根據(jù)官方文檔與參考文檔進行代碼編寫,如圖20所示:

視覺顯著性算法,計算機視覺,python,opencv,人工智能,計算機視覺,matlab

圖20 使用pysaliency庫實現(xiàn)評價標(biāo)準(zhǔn)

4.2 MSI-Net評價

? ? 在將評價標(biāo)準(zhǔn)代碼接入Pycharm中后對于(3)中的樣例進行MIT/Tuebingen Saliency Benchmark評價,實驗結(jié)果與論文結(jié)果比較數(shù)據(jù)如表8所示,效果比較如圖21所示:

表8 論文與實驗中MSI-Net在不同評價標(biāo)準(zhǔn)下的數(shù)據(jù)匯總

視覺顯著性算法,計算機視覺,python,opencv,人工智能,計算機視覺,matlab

視覺顯著性算法,計算機視覺,python,opencv,人工智能,計算機視覺,matlab

圖21 論文與實驗中MSI-Net在不同評價標(biāo)準(zhǔn)下的效果對比

? ? 分析:由表8與圖21可見,在IG、AUC、sAUC、NSS、SIM五個評價標(biāo)準(zhǔn)下,實驗數(shù)據(jù)略低于論文數(shù)據(jù),而在其他兩個評價標(biāo)準(zhǔn)下,實驗數(shù)據(jù)略高于論文數(shù)據(jù),差異的原因與數(shù)據(jù)集有一定的聯(lián)系,總體來說擬合效果較好,MSI-Net算法符合論文提出的輕量化、高評價效果(2020)的特點。

五、線上平臺與集成軟件

除了上文提到的github項目與代碼外,還有一些線上平臺與集成軟件可以較方便地完成注意預(yù)測,本部分將會稍作介紹。

1.DeepGaze II

? ? DeepGaze為注意預(yù)測系列算法,包含DeepGaze I, DeepGaze II, DeepGaze IIE and DeepGaze III四種,在注意預(yù)測多種評價標(biāo)準(zhǔn)下至今仍處領(lǐng)先地位,相關(guān)信息如表8:

表8 DeepGaze算法相關(guān)信息與設(shè)置

官方數(shù)據(jù)集

MIT300CAT2000

相關(guān)論文

多篇

源碼地址

GitHub - matthias-k/DeepGaze: pytorch implementation of the different DeepGaze models

語言(框架)

Pythonpytorch

? ? 其中,DeepGaze II制作了在線平臺供用戶進行注意預(yù)測,地址如下:Index - DeepGaze II (bethgelab.org),進入平臺,點擊“submit an image”按鈕進入選擇圖片界面,有以下兩種設(shè)置,如圖22所示:

1.1 模型選擇

? ? DeepGaze II在線平臺提供了兩種模型,分別是Use the DeepGaze II modelUse the ICF (Intensity Contrast Features) model。

1.2 中心偏置設(shè)置

? ? DeepGaze II在線平臺提供了兩種中心偏置設(shè)置,分別是Use no centerbias (i.e. use a uniform distribution as prior)Use the centerbias from the MIT1003 dataset。

視覺顯著性算法,計算機視覺,python,opencv,人工智能,計算機視覺,matlab

圖22 DeepGaze II在線平臺圖片提交設(shè)置

? ? 使用DeepGaze II在線平臺進行注意預(yù)測,原圖像與預(yù)測圖像樣例如圖23所示(以DeepGaze II模型、使用MIT1003數(shù)據(jù)集的中心偏置為例):

視覺顯著性算法,計算機視覺,python,opencv,人工智能,計算機視覺,matlab

圖23 DeepGaze II注意預(yù)測前后圖像樣例

? ? 補充:DeepGaze II在線平臺未給出評價方法,故在此對效果不做評價。

2.AttentionInsight集成軟件

? ? AttentionInsight為注意預(yù)測的一種算法,開發(fā)了集成軟件(demo版),地址如下:Attention Insight Heatmaps | AI-Driven Pre-Launch Analytics,樣例注意預(yù)測如圖24所示:

視覺顯著性算法,計算機視覺,python,opencv,人工智能,計算機視覺,matlab

圖24 AttentionInsight注意預(yù)測前后圖像樣例

六、匯總與對比

? ? 為探究不同算法注意預(yù)測產(chǎn)生的圖像區(qū)別,分別將上文中算法產(chǎn)生的圖像匯總對比,樣例如圖25所示:

視覺顯著性算法,計算機視覺,python,opencv,人工智能,計算機視覺,matlab

圖25 不同算法與模型注意預(yù)測前后圖像樣例

? ? 分析:由于不同算法與模型使用的標(biāo)準(zhǔn)不同,設(shè)計流程不同,產(chǎn)生結(jié)果自然不同。

七、參考資料

1.劉瑞航.視覺顯著性預(yù)測方法研究.2022.中國礦業(yè)大學(xué),MA thesis.

2.孫夏,and 石志儒."視覺顯著性預(yù)測綜述."?電子設(shè)計工程?25.09(2017):189-193. doi:10.14022/j.cnki.dzsjgc.2017.09.047.

3.腦與認知實驗:圖像中的注意區(qū)域預(yù)測_Asionm的博客-CSDN博客

4.視覺顯著性檢測_百度百科 (baidu.com)?文章來源地址http://www.zghlxwxcb.cn/news/detail-779532.html


到了這里,關(guān)于計算機視覺——圖像視覺顯著性檢測的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 【計算機視覺 | 目標(biāo)檢測 | 圖像分割】arxiv 計算機視覺關(guān)于目標(biāo)檢測和圖像分割的學(xué)術(shù)速遞(7 月 17 日論文合集)

    【計算機視覺 | 目標(biāo)檢測 | 圖像分割】arxiv 計算機視覺關(guān)于目標(biāo)檢測和圖像分割的學(xué)術(shù)速遞(7 月 17 日論文合集)

    Tall:用于深度假冒視頻檢測的縮略圖布局 deepfake對社會和網(wǎng)絡(luò)安全的威脅日益嚴(yán)重,引起了公眾的極大關(guān)注,人們越來越多地致力于deepfake視頻檢測這一關(guān)鍵話題。現(xiàn)有的視頻方法實現(xiàn)了良好的性能,但計算密集型。本文介紹了一種簡單而有效的策略–縮略圖布局(TALL),該

    2024年02月16日
    瀏覽(100)
  • 目標(biāo)檢測 圖像處理 計算機視覺 工業(yè)視覺

    目標(biāo)檢測 圖像處理 計算機視覺 工業(yè)視覺

    從事ai視覺算法有幾年了,本帖是對以往做過的計算機視覺項目的一些總結(jié),硬件部署的大多是基于nvidia的開發(fā)板和GPU服務(wù)器上,如jetson nano,還有地平線J3J5和瑞芯微以及星辰的開發(fā)板,另外就是對實時性要求不高的部署在cpu上。有相關(guān)項目需求可以一起交流和學(xué)習(xí)。(+v 3

    2024年02月06日
    瀏覽(106)
  • (計算機視覺課程-筆記1)圖像邊緣檢測

    Sobel算子是一種常用于圖像處理和計算機視覺中的邊緣檢測算法。它用于識別圖像中的邊緣區(qū)域,即圖像中灰度值發(fā)生劇烈變化的地方。Sobel算子基于圖像的灰度梯度,通過計算每個像素點周圍像素的灰度值差異,來確定邊緣的位置和方向。 Sobel算子主要由兩個3x3的矩陣組成,

    2024年02月16日
    瀏覽(30)
  • 【計算機視覺】【圖像處理綜合應(yīng)用】路沿檢測

    【計算機視覺】【圖像處理綜合應(yīng)用】路沿檢測

    實驗內(nèi)容: 針對給定的視頻,利用圖像處理基本方法實現(xiàn)道路路沿的檢測; 提示:可利用 Hough 變換進行線檢測,融合路沿的結(jié)構(gòu)信息實現(xiàn)路沿邊界定位(圖中紅色的點位置)。 處理視頻文件 處理視頻文件的主要流程如下: 讀取視頻 → 逐幀提取 → 路沿檢測 → 逐幀保存

    2024年02月05日
    瀏覽(49)
  • 計算機視覺基礎(chǔ)(3)——圖像濾波與邊緣檢測

    計算機視覺基礎(chǔ)(3)——圖像濾波與邊緣檢測

    本文主要聚焦于 圖像濾波與邊緣檢測 兩部分。圖像濾波部分分析的是 線性移不變系統(tǒng),將介紹兩類濾波器,平滑濾波器和梯度濾波器 。邊緣檢測部分將介紹 高斯導(dǎo)數(shù)濾波器和Canny邊緣檢測器 。為了更好的閱讀體驗,讀者需要提前了解或掌握卷積、線性移不變系統(tǒng)、梯度、

    2024年02月02日
    瀏覽(21)
  • 計算機視覺實驗:圖像處理綜合-路沿檢測

    計算機視覺實驗:圖像處理綜合-路沿檢測

    目錄 實驗步驟與過程 1. 路沿檢測方法設(shè)計 2. 路沿檢測方法實現(xiàn) 2.1 視頻圖像提取 2.2 圖像預(yù)處理 2.3?興趣區(qū)域提取 2.4?邊緣檢測 ???????2.5?Hough變換 ???????2.6?線條過濾與圖像輸出 3. 路沿檢測結(jié)果展示 4. 其他路沿檢測方法 實驗結(jié)論或體會 實驗內(nèi)容: 針對

    2024年02月14日
    瀏覽(29)
  • 畢業(yè)設(shè)計-計算機視覺:刨花板表面小目標(biāo)缺陷檢測系統(tǒng) 人工智能 算法 python

    畢業(yè)設(shè)計-計算機視覺:刨花板表面小目標(biāo)缺陷檢測系統(tǒng) 人工智能 算法 python

    ? 目錄 ?前言 設(shè)計思路 一、課題背景與意義 二、算法理論原理 2.1 自適應(yīng)空間特征融合模塊 2.2 Ghost 模塊 三、檢測的實現(xiàn) 3.1 數(shù)據(jù)集 3.2 實驗環(huán)境搭建 3.3 實驗及結(jié)果分析 實現(xiàn)效果圖樣例 最后 ? ? ? ???大四是整個大學(xué)期間最忙碌的時光,一邊要忙著備考或?qū)嵙?xí)為畢業(yè)后面臨

    2024年01月16日
    瀏覽(34)
  • 計算機視覺圖像檢測之從EasyDL到BML

    計算機視覺圖像檢測之從EasyDL到BML

    目錄 EasyDL篇 一、數(shù)據(jù)處理 1.1數(shù)據(jù)導(dǎo)入 1.2 數(shù)據(jù)質(zhì)檢 1.3 數(shù)據(jù)標(biāo)注 1.4 數(shù)據(jù)增強 二、模型訓(xùn)練(注意費用問題) 2.1 創(chuàng)建模型 2.2訓(xùn)練模型 三、模型發(fā)布 四、鑒權(quán)認證 4.1 登錄百度智能云平臺 4.2 準(zhǔn)備工作 4.3 獲取鑒權(quán)認證 BML篇 ????????BML的使用與EasyDL基本一致,故不給出詳

    2024年01月23日
    瀏覽(17)
  • 【計算機視覺、關(guān)鍵點檢測、特征提取和匹配】基于SIFT、PCA-SIFT和GLOH算法在不同圖像之間建立特征對應(yīng)關(guān)系,并實現(xiàn)點匹配算法和圖像匹配(Matlab代碼實現(xiàn))

    【計算機視覺、關(guān)鍵點檢測、特征提取和匹配】基于SIFT、PCA-SIFT和GLOH算法在不同圖像之間建立特征對應(yīng)關(guān)系,并實現(xiàn)點匹配算法和圖像匹配(Matlab代碼實現(xiàn))

    ???????? 歡迎來到本博客 ???????? ??博主優(yōu)勢: ?????? 博客內(nèi)容盡量做到思維縝密,邏輯清晰,為了方便讀者。 ?? 座右銘: 行百里者,半于九十。 ?????? 本文目錄如下: ?????? 目錄 ??1 概述 ??2 運行結(jié)果 ??3?參考文獻 ??4 Matlab代碼、數(shù)據(jù)、文章

    2024年03月14日
    瀏覽(25)
  • 計算機競賽 題目:基于機器視覺opencv的手勢檢測 手勢識別 算法 - 深度學(xué)習(xí) 卷積神經(jīng)網(wǎng)絡(luò) opencv python

    計算機競賽 題目:基于機器視覺opencv的手勢檢測 手勢識別 算法 - 深度學(xué)習(xí) 卷積神經(jīng)網(wǎng)絡(luò) opencv python

    ?? 優(yōu)質(zhì)競賽項目系列,今天要分享的是 基于機器視覺opencv的手勢檢測 手勢識別 算法 該項目較為新穎,適合作為競賽課題方向,學(xué)長非常推薦! ?? 更多資料, 項目分享: https://gitee.com/dancheng-senior/postgraduate 普通機器視覺手勢檢測的基本流程如下: 其中輪廓的提取,多邊形

    2024年02月07日
    瀏覽(96)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包