国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【最新綜述】史上最全面的3D語義分割綜述(上)

這篇具有很好參考價值的文章主要介紹了【最新綜述】史上最全面的3D語義分割綜述(上)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

Deep Learning Based 3D Segmentation: A Survey

s3dis語義分割精度,三維點云語義分割,3d

ABSTRACT

????????三維分割是計算機視覺領域的一個基本而具有挑戰(zhàn)性的問題,可應用于自動駕駛、機器人、增強現(xiàn)實和醫(yī)學圖像分析。它受到了計算機視覺、圖形學和機器學習界的極大關注。傳統(tǒng)的三維分割方法基于手工創(chuàng)建的特征和機器學習分類器,缺乏泛化能力。在二維計算機視覺領域取得成功的推動下,深度學習技術最近已成為三維分割任務的首選工具。這導致文獻中出現(xiàn)了大量在不同基準數(shù)據(jù)集上進行評估的方法。雖然存在關于 RGB-D 和點云分割的調查論文,但缺乏涵蓋所有三維數(shù)據(jù)模式和應用領域的深入的最新調查。本文填補了這一空白,對基于深度學習的三維分割領域的最新進展進行了全面調查。它涵蓋了 180 多項研究成果,分析了它們的優(yōu)勢和局限性,并討論了它們在基準數(shù)據(jù)集上的競爭結果。調查總結了最常用的管道,最后強調了未來有前景的研究方向。

1. Introduction

????????三維場景分割是計算機視覺和計算機圖形學中的一個基本而又具有挑戰(zhàn)性的問題。三維分割的目標是建立能預測三維場景中物體細粒度標簽的計算技術,以廣泛應用于自動駕駛、移動機器人、工業(yè)控制、增強現(xiàn)實和醫(yī)學圖像分析等領域。如圖 1 所示,三維分割可分為三種類型:語義分割、實例分割和部分分割。語義分割旨在預測物體類別標簽,如桌子和椅子。實例分割還能區(qū)分同一類別標簽的不同實例,例如桌子一/二和椅子一/二。部件分割的目的是將實例進一步分解為不同的組件,如同一把椅子的扶手、椅腿和靠背。

s3dis語義分割精度,三維點云語義分割,3d

????????與傳統(tǒng)的單視角二維分割相比,三維分割能更全面地了解場景,因為三維數(shù)據(jù)(如 RGB-D、點云、體素、網(wǎng)格、三維視頻)包含更豐富的幾何、形狀和比例信息,背景噪音更少。此外,三維數(shù)據(jù)的表示形式,例如投影圖像,具有更多的語義信息。

????????最近,深度學習技術在計算機視覺和自然語言處理等許多研究領域占據(jù)了主導地位。由于深度學習在學習強大特征方面的成功,用于三維分割的深度學習已在過去十年中,三維深度學習方法也吸引了研究界越來越多的關注。然而,三維深度學習方法仍面臨許多尚未解決的難題。例如,點云的不規(guī)則性使其難以利用局部特征,而將其轉換為高分辨率體素又會帶來巨大的計算負擔。

????????本文全面介紹了三維分割深度學習方法的最新進展。它重點分析了常用的構建模塊、卷積核和完整架構,指出了每種情況下的利弊。調查涵蓋了過去五年中發(fā)表的 180 多篇代表性論文。盡管已經(jīng)發(fā)布了一些著名的三維分割調查報告,包括 RGB-D 語義分割 Fooladgar遙感圖像分割 Yuan, Shi and Gu (2021),點云分割 Xie, Jiaojiao and Zhu (2020a),Guo, Wang, Hu, Liu, Liu and Bennamoun (2020),Liu, Sun, Li, Hu and Wang (2019a),Bello, Yu、Naseer、Khan 和 Porikli (2018)、Ioannidou、Chatzilari、Nikolopoulos 和 Kompatsiaris (2017),這些調查并沒有全面覆蓋所有三維數(shù)據(jù)類型和典型應用領域。最重要的是,這些調查并不側重于三維分割,而是對來自點云的深度學習進行了一般性調查,如 Guo 等人(2020 年)、Liu 等人(2019a)、Bello 等人(2020 年)、Naseer 等人(2018 年)、Ioannidou 等人(2017 年)。鑒于這三個分割任務的重要性,本文專門關注三維分割的深度學習技術。本文的貢獻總結如下:

1.據(jù)我們所知,這是第一篇全面介紹三維分割深度學習方法的調查論文,涵蓋了所有三維數(shù)據(jù)表示,包括 RGB-D、投影圖像、體素、點云、網(wǎng)格和三維視頻。

2.本調查報告深入分析了不同類型三維數(shù)據(jù)分割方法的相對優(yōu)缺點。

3.與現(xiàn)有的綜述不同,本調查報告?zhèn)戎赜趯槿S分割設計的深度學習方法,還討論了典型的分割管道和應用領域。

4.最后,本調查報告在幾個公共基準三維數(shù)據(jù)集上對現(xiàn)有方法進行了全面比較,得出了有趣的結論,并確定了有前途的未來研究方向。

????????圖 2 展示了本研究的組織結構。第 2 節(jié)介紹了一些術語和背景概念,包括流行的三維數(shù)據(jù)集和三維分割的評估指標。第 3 節(jié)回顧了三維語義分割方法,第 4 節(jié)回顧了三維實例分割方法。第 5 節(jié)介紹了現(xiàn)有的三維部件分割方法。第 6 節(jié)回顧了一些常見應用領域中使用的三維分割方法,包括三維視頻分割和三維語義地圖。第 7 節(jié)對幾種常用數(shù)據(jù)集上的三維分割方法進行了性能比較,并給出了相應的數(shù)據(jù)分析。最后,第 8 節(jié)指出了未來有前景的研究方向,并對本文進行了總結。

s3dis語義分割精度,三維點云語義分割,3d

2. Terminology and Background Concept

????????本節(jié)將介紹一些術語和背景概念,包括三維數(shù)據(jù)表示、流行的三維分割數(shù)據(jù)集和評估指標,以幫助讀者輕松瀏覽三維分割領域。

2.1. 3D Segmentation Dataset

????????數(shù)據(jù)集對于利用深度學習訓練和測試三維分割算法至關重要。然而,私人收集和注釋數(shù)據(jù)集既麻煩又昂貴,因為這需要專業(yè)領域的知識、高質量的傳感器和處理設備。因此,利用公共數(shù)據(jù)集是降低成本的理想方法。對社區(qū)來說,采用這種方法還有另一個好處,即可以對各種算法進行公平比較。表 1 總結了一些最流行、最典型的數(shù)據(jù)集,涉及傳感器類型、數(shù)據(jù)大小和格式、場景類別和注釋方法。

s3dis語義分割精度,三維點云語義分割,3d

????????這些數(shù)據(jù)集由不同類型的傳感器采集,用于 3D 語義分割,其中包括 RGB-D 攝像機Silberman 和 Fergus (2011),Silberman、Hoiem、Kohli 和 Fergus (2012),Song、Lichtenberg 和 Xiao (2015),Hua、Pham、Nguyen、Tran、Yu 和 Yeung (2016),Dai、Chang、Savva、Halber、Funkhouser和Nie?ner(2017),移動激光掃描儀Roynard、Deschaud和Goulette(2018),Behley、Garbade、Milioto、Quenzel、Behnke、Stachniss和Gall(2019),靜態(tài)地面掃描儀Hackel、Savinov、Ladicky、Wegner、Schindler 和 Pollefeys(2017)以及虛幻引擎 Brodeur、Perez、Anand、Golemo、Celotti、Strub、Rouat、Larochelle 和 Courville(2017)、Wu、Wu、Gkioxari和Tian(2018b)以及其他三維掃描儀 Armeni、Sener、Zamir、Jiang、Brilakis、Fischer和Savarese(2016),Chang、Dai、Funkhouser、Halber、Niebner、Savva、Song、Zeng和Zhang(2017)。其中,從虛幻引擎中獲得的是合成數(shù)據(jù)集 Brodeur 等人(2017) Wu 等人(2018b),不需要昂貴的設備或注釋時間。這些數(shù)據(jù)集還具有豐富的對象類別和數(shù)量。合成數(shù)據(jù)集擁有完整的 360 度 3D 物體,沒有遮擋效應或噪聲,而真實世界的數(shù)據(jù)集則存在噪聲并包含遮擋物 Silberman 和 Fergus (2011)、Silberman 等人 (2012)、Song 等人 (2015)、Hua 等人 (2016)、Dai 等人 (2017)、Roynard 等人 (2018)、Behley 等人 (2019)、Armeni 等人 (2016)、Hackel 等人 (2017)、Chang 等人 (2017)。在三維實例分割方面,有一些有限的三維數(shù)據(jù)集,如 ScanNet Dai 等人(2017 年)和 S3DIS Armeni 等人(2016 年)。這兩個數(shù)據(jù)集包含由 RGB-D 相機或 Matterport 分別獲得的真實世界室內(nèi)場景掃描。在三維部件分割方面,普林斯頓分割基準(PSB)Chen、Golovinskiy 和 Funkhouser(2009 年)、COSEG Wang、Asafi、Van Kaick、Zhang、Cohen-Or 和 Chen(2012 年)以及 ShapeNet Yi、Kim、Ceylan、Shen、Yan、Su、Lu、Huang、Sheffer 和 Guibas(2016 年)是最受歡迎的三個數(shù)據(jù)集。下面,我們將詳細介紹五個著名的分割數(shù)據(jù)集,包括 S3DIS Armeni 等人(2016 年)、ScanNet Dai 等人(2017 年)、Semantic3D Hackel 等人(2017 年)、SemanticKITTI Chang 等人(2017 年)和 ShapeNet Yi 等人(2016 年)。圖3顯示了這些數(shù)據(jù)集的一些注釋示例。

s3dis語義分割精度,三維點云語義分割,3d

S3DIS:在該數(shù)據(jù)集中,使用 Matterport 掃描儀無需任何人工干預即可獲得完整的點云。該數(shù)據(jù)集由 271 個房間組成,隸屬于 3 座不同建筑的 6 個大型室內(nèi)場景(總面積達 6020 平方米)。這些區(qū)域主要包括辦公室、教育和展覽空間以及會議室等。

Semantic3D:包含利用靜態(tài)地面激光掃描儀采集的總計約40億個三維點,在現(xiàn)實世界的三維空間中覆蓋范圍最大可達160×240×30米。點云屬于8個類別(如城市和農(nóng)村),包含三維坐標、RGB信息和強度。與二維標注策略不同,三維數(shù)據(jù)標注很容易進行過度分割,即每個點都被單獨分配到一個類別標簽中。

SemanticKITTI:是一個大型室外數(shù)據(jù)集,包含28類詳細的按點注釋。在KITTI視覺基準Geiger、Lenz和Urtasun(2012年)的基礎上,SemanticKITTI包含了該基準所有22個序列的注釋,其中包括43K次掃描。此外,該數(shù)據(jù)集還包含旋轉激光傳感器的完整水平360視角的標簽。

ScanNet :數(shù)據(jù)集對場景理解研究特別有價值,因為其注釋包含估計的校準參數(shù)、相機姿勢、三維表面重建、紋理網(wǎng)格、密集的對象級語義分割和 CAD 模型。該數(shù)據(jù)集包括真實世界環(huán)境中帶有注釋的 RGB-D 掃描。在 707 個不同地點采集的 1513 次掃描中共有 250 萬張 RGB-D 圖像。在對 RGB-D 圖像進行處理后,使用 Amazon Mechanical Turk 執(zhí)行了注釋人工智能任務。

ShapeNet :數(shù)據(jù)集采用了一種可擴展的新方法,可對海量三維形狀集合進行高效、準確的幾何標注。新穎的技術創(chuàng)新明確地模擬并減少了標注工作的人力成本。研究人員在 ShapeNetCore 中的形狀類別中為 31963 個模型創(chuàng)建了詳細的按點標注,并將基于特征的分類器、點對點對應關系和形狀對形狀的相似性結合到對形狀網(wǎng)絡的單一 CRF 優(yōu)化中。

2.2. Evaluation Metrics

????????不同的評價指標可以證明分割方法的有效性和優(yōu)越性,包括執(zhí)行時間、內(nèi)存占用和準確性。然而,很少有作者提供有關其方法的執(zhí)行時間和內(nèi)存占用的詳細信息。本文主要介紹準確度指標。

????????對于三維語義分割來說,總體準確度(OAcc)、平均類別準確度(mAcc)和平均類別交集大于聯(lián)合(mIoU)是衡量分割方法準確度最常用的指標。為了便于解釋,我們假設總共有 K + 1 個類別,而 pij 是類別 i 中暗示屬于類別 j 的最小單位(如像素、體素、網(wǎng)格、點)。換句話說,pii 代表真陽性,而 pij 和 pji 分別代表假陽性和假陰性。

????????總體準確率是一個簡單的指標,計算的是真正被分類的樣本數(shù)量與樣本總數(shù)之間的比率。

s3dis語義分割精度,三維點云語義分割,3d

????????平均準確度是對 OAcc 的擴展,計算每個類別的 OAcc,然后對類別總數(shù) K 求平均值。

s3dis語義分割精度,三維點云語義分割,3d

????????平均交叉比聯(lián)合是語義分割的一個標準指標。它計算的是基本真實值和預測值之間的交集比率,以 K 類總數(shù)為平均值。

s3dis語義分割精度,三維點云語義分割,3d

????????在三維實例分割中,還經(jīng)常使用平均精度(AP)和平均類精度(mAP)。假設 LI ,I∈ [0, K] 每類中的實例,而 cij 是實例 i 推斷屬于實例 j 的點的數(shù)量(i = j 代表正確分割,i≠ j 代表錯誤分割)。

?????????平均精度是另一個簡單的分割指標,它計算真陽性樣本與陽性樣本總數(shù)之間的比率。

s3dis語義分割精度,三維點云語義分割,3d

平均值平均精度是 AP 的擴展,它先計算每個班級的 AP,然后對總的 AP 求平均值。

s3dis語義分割精度,三維點云語義分割,3d

????????在三維零件分割中,最常用的是整體平均類別聯(lián)合交集(mIoUcat)和整體平均實例聯(lián)合交集(mIoUins)。為了便于解釋,我們假設每個實例中都有 MJ , J ∈ [0, LI ]個零件,而 qij 是零件 i 中被推斷為屬于零件 j 的點的總數(shù),因此 qii 代表真陽性的數(shù)量,而 qij 和 qji 分別是假陽性和假陰性。

????????總體平均類別交集大于聯(lián)盟是一個用于零件分割的評價指標,用于衡量 K 個類別的平均 IoU。

s3dis語義分割精度,三維點云語義分割,3d

總體平均實例交集大于聯(lián)盟,用于部分分割,衡量所有實例的平均 IoU。

s3dis語義分割精度,三維點云語義分割,3d文章來源地址http://www.zghlxwxcb.cn/news/detail-828452.html

到了這里,關于【最新綜述】史上最全面的3D語義分割綜述(上)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內(nèi)容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 史上最全面的UE4 文件操作,打開,讀、寫,增、刪、改、查

    史上最全面的UE4 文件操作,打開,讀、寫,增、刪、改、查

    創(chuàng)建一個C++項目,并且創(chuàng)建一個C++藍圖庫函數(shù),并且加入頭文件 #include \\\"HAL/PlatformFilemanager.h\\\" #include \\\"Misc/FileHelper.h\\\" #include \\\"Misc/Paths.h\\\" #include \\\"Developer/DesktopPlatform/Public/DesktopPlatformModule.h\\\" #include \\\"Developer/DesktopPlatform/Public/IDesktopPlatform.h\\\" #include \\\"Runtime/Core/Public/HAL/FileManagerGeneric.h

    2023年04月09日
    瀏覽(14)
  • 史上最全事件相機DVS/Event-based Camera的介紹和分析綜述文章

    史上最全事件相機DVS/Event-based Camera的介紹和分析綜述文章

    最近本人在看一些事件相機的論文和研究。下面將看的基礎內(nèi)容整理一下,先是一些基本的event camera原理和發(fā)展的介紹,后面介紹算法。歡迎討論! 模擬生物視網(wǎng)膜特性的仿生相機——事件相機DVS(Dynamic Vision Sensor),該相機具有更寬的動態(tài)范圍,輸出較傳統(tǒng)相機而言更稀疏

    2023年04月11日
    瀏覽(115)
  • 史上最全最新Ubuntu20.04安裝教程(圖文)

    史上最全最新Ubuntu20.04安裝教程(圖文)

    總的來說,安裝Ubantu包含以下三個步驟: 一、安裝虛擬機 二、Ubuntu鏡像下載 三、虛擬機配置 一、安裝虛擬機 選擇安裝VMware Workstation,登錄其官網(wǎng)下載安裝包,鏈接如下: 下載 VMware Workstation Pro?www.vmware.com/cn/products/workstation-pro/workstation-pro-evaluation.html?編輯 下載后運行安

    2024年02月05日
    瀏覽(29)
  • Tomcat安裝及配置教程(保姆級)【最新史上最全版】

    Tomcat安裝及配置教程(保姆級)【最新史上最全版】

    (以tomcat-9.0.62為例:) 可以從官網(wǎng)下載安裝包: 輸入網(wǎng)址進入官網(wǎng) 選擇版本10,版本9,或者版本8,都可以,這里下載的版本9 不想去官網(wǎng)的直接百度網(wǎng)盤自提: 鏈接:https://pan.baidu.com/s/1_wWx48RVn_BSk3eXneAZYw?pwd=aijy 提取碼:aijy 選擇下載64-Bit Windows zip(Win64),根據(jù)電腦版本選

    2024年02月10日
    瀏覽(21)
  • 史上最全的2023最新大數(shù)據(jù)面試筆記【200+頁,10w+字】

    簡介 :我本碩都是雙非計算機專業(yè),研二開始學習大數(shù)據(jù)開發(fā)的相關知識,從找實習到秋招,投遞過100+公司,拿到過 10+ 的offer,包括滴滴、字節(jié)、螞蟻、攜程、蔚來、去哪兒等大廠,現(xiàn)在已經(jīng)簽約 螞蟻數(shù)據(jù)研發(fā)工程師 。依稀還記得剛開始找工作,從零開始準備八股文的時

    2024年02月06日
    瀏覽(37)
  • 3D Tiles語義分割流水線

    3D Tiles語義分割流水線

    Dylan Chua 和 Anne Lee 開發(fā)了一個處理管線,用于對 3D Tiles 中包含的 GL 傳輸格式 (glTF) 模型進行語義分割。 該管道讀取并遍歷 3D Tileset,以輸出包含元數(shù)據(jù)的經(jīng)過轉換的劃分對象集。 該項目為 3D 語義分割器提供了最小可行產(chǎn)品,作為各種應用程序的概念驗證。 他們接受模擬和培

    2024年04月16日
    瀏覽(25)
  • swin unetr的3D語義分割

    swin unetr的3D語義分割

    基于monai庫。其實我不是很喜歡這種,可擴展性太差了,除非說你想快速在自己的數(shù)據(jù)集上出結果。但是它的transform可以對3d醫(yī)學圖像增強操作,比torch的transform強一點,因為它的數(shù)據(jù)增強輸入是(x,y,z)h,w,d格式的,我還沒有試過單獨用它的transform來結合torch訓練。 就這幾個文

    2024年02月12日
    瀏覽(23)
  • 最新最全面的Spring詳解(三)——Resources,驗證、數(shù)據(jù)綁定和類型轉換與Spring表達式語言(SpEL)

    最新最全面的Spring詳解(三)——Resources,驗證、數(shù)據(jù)綁定和類型轉換與Spring表達式語言(SpEL)

    本文為 【Spring】Resources與Spring表達式語言(SpEL) 等相關知識,下邊將對 Resources (包含: Resource接口 、 內(nèi)置的 Resource的實現(xiàn) 、 ResourceLoader接口 、 應用環(huán)境和資源路徑 ), 驗證、數(shù)據(jù)綁定和類型轉換 (包含: BeanWrapper 、 PropertyEditor屬性編輯器 、 類型轉換 、 配置 DataB

    2023年04月26日
    瀏覽(26)
  • 史上最全最新微信小程序自動化教程,看過的都點贊了

    史上最全最新微信小程序自動化教程,看過的都點贊了

    微信小程序作為現(xiàn)在流行的一種應用載體,很多小伙伴都有對其做自動化測試的需求,由于騰訊系QQ、微信等是基于騰訊自研X5內(nèi)核,不是谷歌原生webview,所以調試會有些許差異(現(xiàn)在很多app產(chǎn)品也開始流行采用X5內(nèi)核作為其內(nèi)嵌web瀏覽服務)。 需要注意的是X5內(nèi)核只支持手機

    2024年02月11日
    瀏覽(23)
  • 3D點云之語義分割(相關官方示例介紹)

    3D點云之語義分割(相關官方示例介紹)

    之前在博客中提到,會考慮用深度學習來對3D點云進行處理,接下來邁出腳步,先整幾個例子來熟悉它。例子原型來源于官網(wǎng),博主在其基礎上做了一些代碼修改。 1. Keras中的資源 Code examples 2.openvinotoolkit open_model_zoo/demos at master · openvinotoolkit/open_model_zoo · GitHub 主要參考官網(wǎng)

    2024年02月06日
    瀏覽(20)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包