目錄
系列文章目錄
零、問題描述
一、圖像顯著性檢測
1.定義
2.難點
二、常用評價標(biāo)準(zhǔn)和計算方法
1.綜述
2.ROS曲線詳述
2.1 混淆矩陣
2.2 ROC曲線簡介
2.3 ROC曲線繪制及其判別標(biāo)準(zhǔn)
2.4 ROC曲線補充
三、Fast and Efficient Saliency (FES)
1.算法簡介
2.項目導(dǎo)入與解析
3.FES注意預(yù)測實踐
4.評價結(jié)果
四、MSI-Net
1.算法簡介
2.項目導(dǎo)入與解析
3.MSI-Net注意預(yù)測實踐
3.1 環(huán)境搭建與配置
3.2 下載或?qū)霐?shù)據(jù)集
3.3 訓(xùn)練
3.4 測試(注意預(yù)測)
4.評價結(jié)果
4.1 評價標(biāo)準(zhǔn)代碼實現(xiàn)
4.2 MSI-Net評價
五、線上平臺與集成軟件
1.DeepGaze II
1.1 模型選擇
1.2 中心偏置設(shè)置
2.AttentionInsight集成軟件
六、匯總與對比
七、參考資料
系列文章目錄
完整代碼:李憶如 - Gitee.com
? ? 本系列博客重點在計算機視覺的概念原理與代碼實踐,不包含繁瑣的數(shù)學(xué)推導(dǎo)(有問題歡迎在評論區(qū)討論指出,或直接私信聯(lián)系我)。
第一章?計算機視覺——圖像去噪及直方圖均衡化(圖像增強)_@李憶如的博客??????
第二章?計算機視覺——車道線(路沿)檢測_@李憶如的博客-CSDN博客
第三章?計算機視覺——圖像視覺顯著性檢測?
梗概
? ? 本篇博客主要介紹圖像顯著性檢測(注意預(yù)測)定義、原理及其相關(guān)流程。探究并實踐不同數(shù)據(jù)集、不同平臺下傳統(tǒng)顯著性檢測算法與深度學(xué)習(xí)的顯著性檢測算法,故選擇了Matlab下的傳統(tǒng)算法Fast and Efficient Saliency (FES)與Python下的深度學(xué)習(xí)算法MSI-Net進行實驗。此外,還在部分開源平臺進行了線上注意預(yù)測嘗試,另外使用了不同的評價標(biāo)準(zhǔn)對效果進行評價與對比(內(nèi)附數(shù)據(jù)、python、matlab代碼)
零、問題描述
? ? 請選擇一種基于圖像的注意預(yù)測算法,使用該算法進行圖像注意區(qū)域的預(yù)測,并使用注意預(yù)測的常用評價標(biāo)準(zhǔn)進行評價。在這里請給出方法簡介、原圖像、預(yù)測結(jié)果、評價結(jié)果。
參考鏈接:MIT Saliency Benchmark
????????? https://saliency.tuebingen.ai
一、圖像顯著性檢測
1.定義
? ? 視覺顯著性是指對于真實世界中的場景,人們會自動的識別出感興趣區(qū)域,并對感興趣的區(qū)域進行處理,忽略掉不感興趣的區(qū)域。
? ? 圖像的注意預(yù)測,也稱視覺顯著性檢測。指通過智能算法模擬人的視覺系統(tǒng)特點,預(yù)測人類的視覺凝視點和眼動,提取圖像中的顯著區(qū)域(即人類感興趣的區(qū)域),是計算機視覺領(lǐng)域關(guān)鍵的圖像分析技術(shù)。部分圖像及其注意預(yù)測結(jié)果示例如圖1所示:
圖1 部分圖像及其注意預(yù)測結(jié)果示例
2.難點
? ? 自1980年Treisman和Gelade提出開創(chuàng)性的自底向上的注意力模型以來,涌現(xiàn)出大量的注意預(yù)測算法。主要可以分為兩個階段,第一階段為基于強度、顏色和方向等傳統(tǒng)尺度空間手工特征的注意預(yù)測算法。第二個階段,隨著計算機神經(jīng)網(wǎng)絡(luò)技術(shù)的革新和發(fā)展,基于深度學(xué)習(xí)的注意預(yù)測算法大量出現(xiàn)。
? ? 對于傳統(tǒng)注意預(yù)測算法,由于其特征提取和學(xué)習(xí)方法都以圖像本身空間特征為基礎(chǔ),缺乏多語義等深度特征,相較于人眼仍然具有較大差距,即并很難檢測到人眼注視信息包含的大量高級語義信息,在預(yù)測效果的提高上有局限。且不同人的注意力機制存在一定差異,在大部分傳統(tǒng)模型中未加入先驗信息,處理相對困難。
? ? 對于深度學(xué)習(xí)注意預(yù)測算法,卷積神經(jīng)網(wǎng)絡(luò)中具有下采樣的操作,會逐漸降低特征分辨率,并在此過程中丟失不同尺度包含的特征信息。且深度學(xué)習(xí)算法在神經(jīng)網(wǎng)絡(luò)的設(shè)計上針對不同任務(wù)需要不斷變更,算法較復(fù)雜。另外,深度學(xué)習(xí)模型一般存在可解釋性差的共性缺點,且對硬件環(huán)境要求較高,效率較低。
二、常用評價標(biāo)準(zhǔn)和計算方法
1.綜述
? ? 對于注意預(yù)測的常用評價標(biāo)準(zhǔn)是多方面的。
? ? 比如在經(jīng)典的評價標(biāo)準(zhǔn)中,可用KL距離來度量預(yù)測與真實分布的距離,接受者操作特性曲線(ROC曲線)來度量真假陽,將歸一化后預(yù)測人眼掃描路徑與真實路徑計算相關(guān)系數(shù)。
? ? 在論文實驗常用標(biāo)準(zhǔn)MIT/Tuebingen Saliency Benchmark中,使用IG、AUC、sAUC、NSS、CC、KLDiv、SIM指標(biāo)評價,從不同維度評價,指標(biāo)高則代表該方面注意預(yù)測能力較強,評價標(biāo)準(zhǔn)詳見:MIT/Tuebingen Saliency Benchmark。
? ? 在其他方面,可以基于顯著點評價,基于區(qū)域評價,主觀評價等。
2.ROS曲線詳述
? ? 本實驗以ROS曲線為例,詳細介紹一種注意預(yù)測的常用評價標(biāo)準(zhǔn)和計算方法。
2.1 混淆矩陣
? ? 對于二分類問題,可將樣本根據(jù)其真實類別與學(xué)習(xí)器預(yù)測類別的組合劃分為TP(true positive)、FP(false positive)、TN(true negative)、FN(false negative)四種情況,TP+FP+TN+FN=樣本總數(shù),如圖2所示:
圖2 混淆矩陣樣本劃分
? ? 其中,有如下三個定義須知,對應(yīng)的公式如圖3所示:
Ⅰ、真正率 TPR:預(yù)測為正例且實際為正例的樣本占所有正例樣本(真實結(jié)果為正樣本)的比例。
Ⅱ、假正率 FPR:預(yù)測為正例但實際為負例的樣本占所有負例樣本(真實結(jié)果為負樣本)的比例。
Ⅲ、特異性(真陰性率)TNR:是指實際為陰性的樣本中,判斷為陰性的比例。
圖3 混淆矩陣三大相關(guān)公式計算
2.2 ROC曲線簡介
? ? ROC曲線是對同一信號刺激的反應(yīng)在幾種不同的判定標(biāo)準(zhǔn)下所得的結(jié)果,用來度量真陽vs假陽,是一種比較分類模型可視化的工具。其中有如圖4其他四種常見評價標(biāo)準(zhǔn)計算方法:
圖4 四種常見評價標(biāo)準(zhǔn)的計算方法
2.3 ROC曲線繪制及其判別標(biāo)準(zhǔn)
? ? 根據(jù)上述說明及混淆矩陣定義可知,ROC曲線的橫坐標(biāo)和縱坐標(biāo)是沒有相關(guān)性的,所以不能把ROC曲線當(dāng)做一個函數(shù)曲線來分析,應(yīng)該把ROC曲線看成無數(shù)個點,每個點代表一個分類器。橫坐標(biāo)為分類器的FPR,縱坐標(biāo)為分類器的TPR。引入例子如圖5所示:
?
圖5 ROC曲線繪制樣例
? ? 分析:由圖5所示,評價分類器好壞只需對比位置與相關(guān)參數(shù)。樣例中C'的性能最好。而B的準(zhǔn)確率只有0.5,幾乎是隨機分類。其中,圖中左上角坐標(biāo)為(1,0)的點為完美分類點(perfect classification),它代表所有的分類全部正確。
? ? 補充:實際ROC曲線繪制只需對多個分類器繪圖即可。
2.4 ROC曲線補充
? ? ROC分類器具體分類標(biāo)準(zhǔn)如圖6所示,優(yōu)點與作用如表1所示:
?
圖6 ROC分類標(biāo)準(zhǔn)
表1 ROC曲線優(yōu)點與作用
優(yōu)點 |
作用 |
1.簡單、直觀 |
1.查出一個分類器在某個閾值時對樣本的識別能力 |
2.對類分布的改變不敏感 |
2.選擇出某一診斷方法最佳的診斷界限值 |
3.可延申為其他評價標(biāo)準(zhǔn) |
3. 比較兩種及以上不同診斷方法對疾病的識別能力大小 |
? ? 補充: AUC(Area Under Curve)也是注意預(yù)測常用評價標(biāo)準(zhǔn),被定義為ROC曲線下與坐標(biāo)軸圍成的面積,顯然這個面積的數(shù)值不會大于1。又由于ROC曲線一般都處于y=x這條直線的上方,所以AUC的取值范圍在0.5和1之間。AUC越接近1.0,檢測方法真實性越高;等于0.5時,則真實性最低,無應(yīng)用價值。
三、Fast and Efficient Saliency (FES)
? ? 本部分將使用FES算法進行圖像注意區(qū)域的預(yù)測,相關(guān)信息與設(shè)置如表2所示:
表2 FES算法相關(guān)信息與設(shè)置
官方數(shù)據(jù)集 |
CAT2000 |
相關(guān)論文 |
LNCS 6688 - Fast and Efficient Saliency Detection Using Sparse Sampling and Kernel Density Estimation (springer.com) |
源碼地址 |
GitHub - hrtavakoli/FES: Code for Fast and efficient saliency detection using sparse sampling and kernel density estimation |
語言 |
Matlab |
1.算法簡介
? ? 注意預(yù)測在計算機視覺中獲得了大量的關(guān)注。在論文中,作者研究了使用中心-周圍方法的注意預(yù)測,樣例如圖7所示。提出的方法是基于在貝葉斯框架下估計局部特征對比的顯著性。所需的分布特別是使用稀疏抽樣和核密度估計來估計。此外,該方法的性質(zhì)隱含地考慮了文獻中所指的中心偏差。
? ? 論文的方法在CAT2000上進行了評估,該數(shù)據(jù)集包含了人類眼睛的固定位置作為地面實況。結(jié)果表明,與最先進的方法相比,有5%以上的改進(2011)。此外,該方法足夠快,可以實時運行,論文使用FES進行注意預(yù)測前后的圖像樣例如圖8所示:
?
圖7 中心-周圍方法樣例
?
圖8 論文使用FES進行注意預(yù)測前后的圖像
2.項目導(dǎo)入與解析
? ? 進入github下載對應(yīng)項目,該項目包含的文件和目錄如表3所示:
表3 FES項目文件目錄
名稱 |
作用 |
calculateImageSaliency.p |
計算單一比例的圖像顯著性 |
calculateFinalSaliency.m |
計算多個比例的圖像顯著性 |
runSaliency.m(主文件) |
一個顯示如何計算突出性的樣本文件 |
prior.mat |
通過學(xué)習(xí)獲得的先驗 |
? ? 將項目導(dǎo)入Matlab中,觀察并解析代碼,總結(jié)算法流程如圖9:
?
圖9 FES在Matlab中的算法流程
3.FES注意預(yù)測實踐
? ? 按圖9中算法流程,先定義好待實驗圖像文件夾data與保存文件夾result,之后運行runSaliency.m。實驗中原圖像與預(yù)測圖像樣例如圖10所示:
?
圖10 FES注意預(yù)測前后圖像樣例
? ? 分析:在MatlabR2020a下運行FES對10張圖片進行注意預(yù)測,用時3.122s,符合在Fast and Efficient的特點。圖10中可見預(yù)測效果與原理相符,評價結(jié)果在后續(xù)詳述。
4.評價結(jié)果
? ? 為對FES算法的注意預(yù)測效果進行合理評價,本實驗使用論文實驗常用標(biāo)準(zhǔn)MIT/Tuebingen Saliency Benchmark,F(xiàn)ES論文在CAT2000數(shù)據(jù)集下給出的參考指標(biāo)如表4所示:
表4 FES參考預(yù)測效果指標(biāo)(CAT2000數(shù)據(jù)集)
AUC |
sAuc |
NSS |
CC |
KLDiv |
SIM |
0.8212 |
0.5450 |
1.6103 |
0.5799 |
2.6123 |
0.5255 |
? ? 由于評價體系官方依賴庫為pysaliency python library,尋找matlab相關(guān)依賴無果,故采用網(wǎng)絡(luò)方法單項實現(xiàn)不同指標(biāo)對FES的評估,參考文檔如下:
①AUS:AUC值計算(matlab) - zhouerba - 博客園 (cnblogs.com)
②sAuc:顯著性檢測(saliency detection)評價指標(biāo)之sAUC(shuffled AUC)的Matlab代碼實現(xiàn)_a18861227的博客-CSDN博客
③NSS:Matlab顯著性檢測模型性能度量之NSS_Mr.Q的博客-CSDN博客
④CC:Matlab 顯著性檢測模型性能度量線性相關(guān)系數(shù) CC_Mr.Q的博客-CSDN博客_相關(guān)系數(shù)cc
⑤KLDiv:KLDIV - File Exchange - MATLAB Central (mathworks.com)
⑥SIM:顯著性檢測SIM算法--Matlab_matlabsim-圖像處理代碼類資源-CSDN文庫
? ? 在將評價標(biāo)準(zhǔn)代碼接入matlab中后對于(3)中的樣例進行MIT/Tuebingen Saliency Benchmark評價,實驗結(jié)果與論文結(jié)果比較數(shù)據(jù)如表5所示,效果比較如圖11所示:
表5 論文與實驗中FES在不同評價標(biāo)準(zhǔn)下的數(shù)據(jù)匯總
?
?
圖11 論文與實驗中FES在不同評價標(biāo)準(zhǔn)下的效果對比
? ? 分析:由表5與圖11可見,在AUC、sAUC、NSS、KLDiv四個評價標(biāo)準(zhǔn)下,實驗數(shù)據(jù)略低于論文數(shù)據(jù),而在其他兩個評價標(biāo)準(zhǔn)下,實驗數(shù)據(jù)略高于論文數(shù)據(jù),差異的原因與數(shù)據(jù)集有一定的聯(lián)系,總體來說擬合效果較好,FES算法符合論文提出的高效、高評價效果(2011)的特點。
四、MSI-Net
? ? 本部分將使用MSI-Net算法進行圖像注意區(qū)域的預(yù)測,相關(guān)信息與設(shè)置如表6所示:
表6 MSI-Net算法相關(guān)信息與設(shè)置
官方數(shù)據(jù)集 |
MIT300 |
相關(guān)論文 |
main.pdf (sciencedirectassets.com) |
源碼地址 |
GitHub - alexanderkroner/saliency: Contextual Encoder-Decoder Network for Visual Saliency Prediction [Neural Networks 2020] |
語言(框架) |
Python(tensorflow) |
參考文檔 |
圖像中的注意區(qū)域預(yù)測_Asionm的博客-CSDN博客_salicon數(shù)據(jù)集 |
1.算法簡介
? ? 注意預(yù)測任務(wù)需要檢測場景中存在的物體。為了開發(fā)穩(wěn)健的表征,必須在多個空間尺度上提取高層次的視覺特征,并輔以背景信息。在論文中,作者提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)的方法,該網(wǎng)絡(luò)在大規(guī)模的圖像分類任務(wù)中進行了預(yù)訓(xùn)練。該架構(gòu)形成了一個編碼器-解碼器結(jié)構(gòu),如圖12所示。并包括一個具有不同擴張率的多個卷積層的模塊,以平行捕捉多尺度特征。此外,我們將得到的表征與全局場景信息相結(jié)合,以準(zhǔn)確預(yù)測視覺顯著性。
? ? 論文的模型在兩個公共顯著性基準(zhǔn)的多個評估指標(biāo)上取得了有競爭力的一致結(jié)果,我們在五個數(shù)據(jù)集和選定的例子上證明了建議的方法的有效性。與最先進的方法(2020)相比,該網(wǎng)絡(luò)是基于一個輕量級的圖像分類骨干,因此為計算資源有限的應(yīng)用提供了一個合適的選擇,如(虛擬)機器人系統(tǒng),以估計人類在復(fù)雜自然場景中的固定。論文使用MSI-Net進行注意預(yù)測前后的圖像樣例如圖13所示:
圖12 編碼器-解碼器架構(gòu)的模塊圖
? ? 補充:如圖12所示,VGG16主干被修改以考慮密集預(yù)測任務(wù)的要求,省略了最后兩個最大集合層的特征降采樣。然后,多級激活被轉(zhuǎn)發(fā)到ASPP模塊,該模塊在不同的空間尺度上并行地捕獲信息。最后,輸入的圖像尺寸通過解碼器網(wǎng)絡(luò)被恢復(fù)。卷積層下面的小寫字母表示相應(yīng)的特征圖的數(shù)量。
圖13 論文使用MSI-Net進行注意預(yù)測前后的圖像
2.項目導(dǎo)入與解析
? ? 進入github下載對應(yīng)項目,該項目包含的文件及核心作用與環(huán)境配置如圖14所示,將項目導(dǎo)入Pycharm中,觀察并解析代碼,總結(jié)算法流程如圖15:
圖14 MSI-Net項目文件及核心作用與環(huán)境配置
圖15 MSI-Net在Pycharm中的算法流程
3.MSI-Net注意預(yù)測實踐
3.1 環(huán)境搭建與配置
? ? 如圖14,安裝好對應(yīng)環(huán)境與相關(guān)依賴后才可以正常運行項目。在環(huán)境搭配于配置過程中遇到了如下幾個問題:
Ⅰ、缺少函數(shù)問題:在未作版本處理前,本人使用的環(huán)境為tensorflow2.10,在運行時會出現(xiàn)缺少函數(shù)問題,如圖16所示:
圖16 運行中的函數(shù)缺少問題
Ⅱ、tensorflow降級問題:為解決問題Ⅰ需做降級。由于本人使用的Python為3.8,不支持MSI-Net項目所需的tensorflow1.x版本,故在搜索資料后使用pip install --upgrade https://storage.googleapis.com/tensorflow/mac/cpu/tensorflow-1.14.0-py3-none-any.whl命令降低版本,如圖17所示:
圖17 tensorflow強制降級
Ⅲ、環(huán)境選擇問題:在降級后仍然無法成功運行,在查閱github官方文檔后發(fā)現(xiàn)算法的運行同時提供GPU與CPU的形式運行(其默認為GPU運行),由于本人為tensorflow-cpu,所以需要修改config.py的“device”,如圖18所示:
圖18 切換算法環(huán)境方法
3.2 下載或?qū)霐?shù)據(jù)集
? ? Github中MSI-Net項目默認是使用SALICON數(shù)據(jù)集,能夠自動抓取的數(shù)據(jù)集有``salicon, mit1003, cat2000, dutomron, pascals, osie, fiwi`。在運行訓(xùn)練代碼時會檢測數(shù)據(jù)集是否存在,若不存在會自動下載(本實驗選擇手動下載導(dǎo)入)。
3.3 訓(xùn)練
? ? 使用python main.py train命令即可開始訓(xùn)練,默認epoch = 10。
3.4 測試(注意預(yù)測)
? ? 使用③中訓(xùn)練好的模型,或者直接使用(論文)官網(wǎng)中作者中給定的參數(shù)進行測試,命令為python main.py test -d DATA -p PATH。其中DATA對應(yīng)的是用于訓(xùn)練時的數(shù)據(jù)集,若沒有事先訓(xùn)練的話,它會直接從網(wǎng)上下載已經(jīng)訓(xùn)練好的權(quán)重進行評估。而PATH對應(yīng)的是所要測試的圖片地址,可以是多張圖片也可以是單張圖片。最后訓(xùn)練得到的結(jié)果會放在 results/images/中。
? ? 實驗中原圖像與預(yù)測圖像樣例如圖19所示:
圖19 MSI-Net注意預(yù)測前后圖像樣例
? ? 分析:在Pycharm2021下運行MSI-Net對10張圖片進行注意預(yù)測,用時4.712s(測試時間)。圖19中可見預(yù)測效果與原理相符,評價結(jié)果在后續(xù)詳述。
4.評價結(jié)果
? ? 為對MSI-Net算法的注意預(yù)測效果進行合理評價,本實驗使用論文實驗常用標(biāo)準(zhǔn)MIT/Tuebingen Saliency Benchmark,MSI-Net論文在MIT300數(shù)據(jù)集下給出的參考指標(biāo)如表7所示:
表7 MSI-Net參考預(yù)測效果指標(biāo)(MIT300數(shù)據(jù)集)
IG |
AUC |
sAuc |
NSS |
CC |
KLDiv |
SIM |
0.9185 |
0.8738 |
0.7787 |
2.3053 |
0.7790 |
0.4232 |
0.6704 |
4.1 評價標(biāo)準(zhǔn)代碼實現(xiàn)
? ? 評價體系官方依賴庫為pysaliency python library,所以Python可以直接使用相關(guān)依賴,有如下兩種使用途徑
Ⅰ、直接利用源代碼進行注意預(yù)測評價:首先可以直接在github相關(guān)源上下載https://github.com/matthias-k/saliency-benchmarking,然后進行評估。
Ⅱ、直接使用pysaliency庫:利用pip工具進行安裝庫,根據(jù)官方文檔與參考文檔進行代碼編寫,如圖20所示:
圖20 使用pysaliency庫實現(xiàn)評價標(biāo)準(zhǔn)
4.2 MSI-Net評價
? ? 在將評價標(biāo)準(zhǔn)代碼接入Pycharm中后對于(3)中的樣例進行MIT/Tuebingen Saliency Benchmark評價,實驗結(jié)果與論文結(jié)果比較數(shù)據(jù)如表8所示,效果比較如圖21所示:
表8 論文與實驗中MSI-Net在不同評價標(biāo)準(zhǔn)下的數(shù)據(jù)匯總
圖21 論文與實驗中MSI-Net在不同評價標(biāo)準(zhǔn)下的效果對比
? ? 分析:由表8與圖21可見,在IG、AUC、sAUC、NSS、SIM五個評價標(biāo)準(zhǔn)下,實驗數(shù)據(jù)略低于論文數(shù)據(jù),而在其他兩個評價標(biāo)準(zhǔn)下,實驗數(shù)據(jù)略高于論文數(shù)據(jù),差異的原因與數(shù)據(jù)集有一定的聯(lián)系,總體來說擬合效果較好,MSI-Net算法符合論文提出的輕量化、高評價效果(2020)的特點。
五、線上平臺與集成軟件
除了上文提到的github項目與代碼外,還有一些線上平臺與集成軟件可以較方便地完成注意預(yù)測,本部分將會稍作介紹。
1.DeepGaze II
? ? DeepGaze為注意預(yù)測系列算法,包含DeepGaze I, DeepGaze II, DeepGaze IIE and DeepGaze III四種,在注意預(yù)測多種評價標(biāo)準(zhǔn)下至今仍處領(lǐng)先地位,相關(guān)信息如表8:
表8 DeepGaze算法相關(guān)信息與設(shè)置
官方數(shù)據(jù)集 |
MIT300與CAT2000 |
相關(guān)論文 |
多篇 |
源碼地址 |
GitHub - matthias-k/DeepGaze: pytorch implementation of the different DeepGaze models |
語言(框架) |
Python(pytorch) |
? ? 其中,DeepGaze II制作了在線平臺供用戶進行注意預(yù)測,地址如下:Index - DeepGaze II (bethgelab.org),進入平臺,點擊“submit an image”按鈕進入選擇圖片界面,有以下兩種設(shè)置,如圖22所示:
1.1 模型選擇
? ? DeepGaze II在線平臺提供了兩種模型,分別是Use the DeepGaze II model和Use the ICF (Intensity Contrast Features) model。
1.2 中心偏置設(shè)置
? ? DeepGaze II在線平臺提供了兩種中心偏置設(shè)置,分別是Use no centerbias (i.e. use a uniform distribution as prior)和Use the centerbias from the MIT1003 dataset。
圖22 DeepGaze II在線平臺圖片提交設(shè)置
? ? 使用DeepGaze II在線平臺進行注意預(yù)測,原圖像與預(yù)測圖像樣例如圖23所示(以DeepGaze II模型、使用MIT1003數(shù)據(jù)集的中心偏置為例):
圖23 DeepGaze II注意預(yù)測前后圖像樣例
? ? 補充:DeepGaze II在線平臺未給出評價方法,故在此對效果不做評價。
2.AttentionInsight集成軟件
? ? AttentionInsight為注意預(yù)測的一種算法,開發(fā)了集成軟件(demo版),地址如下:Attention Insight Heatmaps | AI-Driven Pre-Launch Analytics,樣例注意預(yù)測如圖24所示:
圖24 AttentionInsight注意預(yù)測前后圖像樣例
六、匯總與對比
? ? 為探究不同算法注意預(yù)測產(chǎn)生的圖像區(qū)別,分別將上文中算法產(chǎn)生的圖像匯總對比,樣例如圖25所示:
圖25 不同算法與模型注意預(yù)測前后圖像樣例
? ? 分析:由于不同算法與模型使用的標(biāo)準(zhǔn)不同,設(shè)計流程不同,產(chǎn)生結(jié)果自然不同。
七、參考資料
1.劉瑞航.視覺顯著性預(yù)測方法研究.2022.中國礦業(yè)大學(xué),MA thesis.
2.孫夏,and 石志儒."視覺顯著性預(yù)測綜述."?電子設(shè)計工程?25.09(2017):189-193. doi:10.14022/j.cnki.dzsjgc.2017.09.047.
3.腦與認知實驗:圖像中的注意區(qū)域預(yù)測_Asionm的博客-CSDN博客文章來源:http://www.zghlxwxcb.cn/news/detail-779532.html
4.視覺顯著性檢測_百度百科 (baidu.com)?文章來源地址http://www.zghlxwxcb.cn/news/detail-779532.html
到了這里,關(guān)于計算機視覺——圖像視覺顯著性檢測的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!