国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

人體3D重建-ICON論文解讀

這篇具有很好參考價值的文章主要介紹了人體3D重建-ICON論文解讀。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。


論文: 《ICON : Implicit Clothed humans Obtained from Normals》
github: https://github.com/yuliangxiu/icon

創(chuàng)新點(diǎn)

現(xiàn)有方法需要3D掃描或者具有精心控制的2D圖像進(jìn)行3D重建,作者提出ICON,可通過不受約束的2D圖像建模,結(jié)合所有建模結(jié)果生成動畫;
現(xiàn)有方法對各種姿勢人體3D建模不夠魯棒,由于使用全局特征進(jìn)行編碼,對全局姿勢比較敏感;為解決這個問題,ICON使用局部特征。
在AGORA和CAPE數(shù)據(jù)集上,即使訓(xùn)練數(shù)據(jù)有限,ICON獲得SOTA,而且在非同分步數(shù)據(jù)集上也比較魯棒。

算法

mesh-based方法具有很好的正則化,而深層隱式函數(shù)具有更強(qiáng)的表現(xiàn)力;ICON將兩者結(jié)合。ICON輸入穿衣的人體RGB圖及SMPL人體估計(jì),輸出穿衣的像素級3D重構(gòu)結(jié)果;
人體3D重建-ICON論文解讀
ICON結(jié)構(gòu)如圖3,主要包括兩個模塊:Body-guided normal預(yù)測、基于局部特征隱式三維重建。

Body-guided normal prediction

Body-guided normal預(yù)測流程:
1、使用PyMAF從圖像 I I I估計(jì)SMPL mesh, M ( β , θ ) ∈ R N × 3 M(\beta,\theta)\in R^{N\times 3} M(β,θ)RN×3
2、使用PyTorch3D中可微渲染器DR,從前后兩面渲染M得到SMPL-body normal N b = { N f r o n t b , N b a c k b } N^b=\{N^b_{front}, N^b_{back}\} Nb={Nfrontb?,Nbackb?},如式1;
3、將 N b N^b Nb與原圖 I I I concat后,通過網(wǎng)絡(luò) G N = { G f r o n t N , G b a c k N } G^N=\{G^N_{front}, G^N_{back}\} GN={GfrontN?,GbackN?}得到預(yù)測clothed-body normal maps, N ^ c = { N ^ f r o n t c , N ^ b a c k c } \hat N^c=\{\hat N^c_{front}, \hat N^c_{back}\} N^c={N^frontc?,N^backc?},如式2;
人體3D重建-ICON論文解讀
4、訓(xùn)練 G N G^N GN的損失函數(shù)如式3,
人體3D重建-ICON論文解讀
其中, L p i x e l = ∣ N v c ? N ^ v c ∣ , v = { f r o n t , b a c k } , L V G G L_{pixel}=|N^c_v - \hat N^c_v|,v=\{front,back\},L_{VGG} Lpixel?=Nvc??N^vc?,v={front,back},LVGG?為感知損失,有助于恢復(fù)細(xì)節(jié)。
精細(xì)化SMPL
準(zhǔn)確的SMPL body有助于生成質(zhì)量更佳的clothed-body normals,但是實(shí)際中不會生成像素級對齊的SMPL fit;因此,在推理時,SMPL fit依靠SMPL-body normal maps N b N^b Nb和預(yù)測的clothed-body normal maps N c N^c Nc之間的差異進(jìn)行優(yōu)化,如圖4;
人體3D重建-ICON論文解讀

SMPL的參數(shù)優(yōu)化損失函數(shù)如式4、5
人體3D重建-ICON論文解讀
其中, L N _ d i f f L_{N_{\_diff}} LN_diff??為normal map的L1損失, L S _ d i f f L_{S_{\_diff}} LS_diff??為SMPL body normal-map輪廓 S b S^b Sb與人體mask S ^ c \hat S^c S^c之間L1損失。
ICON在推理時,交替進(jìn)行a.使用預(yù)測的clothed-body normal N ^ c \hat N^c N^c優(yōu)化SMPL mesh;b.使用精細(xì)化SMPL mesh預(yù)測 N ^ c \hat N^c N^c;

Local-feature based implicit 3D reconstruction

給定預(yù)測的clothed-body normal maps N ^ c \hat N^c N^c及SMPL-body mesh M M M,基于局部特征 F P F_P FP?回歸3D surface, F P F_P FP?如式6,
人體3D重建-ICON論文解讀
其中, F s F_s Fs?為point P到最近body point P b ∈ M P^b\in M PbM的有符號距離; F n b F^b_n Fnb? P b P^b Pb的barycentric surface normal; F n c F^c_n Fnc?為從 N ^ c = { N ^ f r o n t c , N ^ b a c k c } \hat N^c=\{\hat N^c_{front}, \hat N^c_{back}\} N^c={N^frontc?,N^backc?}提取的normal向量;
F P F_P FP?經(jīng)過隱函數(shù) I F ( M L P 網(wǎng) 絡(luò) ) IF(MLP網(wǎng)絡(luò)) IF(MLP網(wǎng)絡(luò)),估計(jì)點(diǎn)P的occupancy o ^ ( P ) \hat o(P) o^(P),通過MSE損失訓(xùn)練 I F IF IF;

實(shí)驗(yàn)

評估方式

作者使用三種評估方式:
Chamfer距離: 計(jì)算真值scan與重構(gòu)mesh之間距離;這種評該評估方法捕獲了較大的幾何差異,但遺漏了較小的幾何細(xì)節(jié)。
人體3D重建-ICON論文解讀
P2S距離: CAPE數(shù)據(jù)集scan包含大的空洞,為了排除孔洞影響,我們記錄scan點(diǎn)到最近重構(gòu)表面點(diǎn)之間距離,為Chamfer距離的單向版本;
Normal difference: 表示使用重構(gòu)的及真值surface分別進(jìn)行渲染normal圖片,計(jì)算兩者之間L2距離,用于捕獲高頻幾何細(xì)節(jié)誤差。

實(shí)驗(yàn)結(jié)果

實(shí)驗(yàn)結(jié)果如表2,
人體3D重建-ICON論文解讀
實(shí)驗(yàn)結(jié)果表明:
1、如表2-A,ICON超過所有原始SOTA方法,ICON泛化性強(qiáng),;
2、如表2-B,沒有SMPL-X-body引導(dǎo),誤差變大,使用body引導(dǎo),可有效改善遮擋部位重建,如圖5.
人體3D重建-ICON論文解讀
3、表2-C,作者評估局部特征 F P F_P FP?的重要性,作者將局部特征 F P F_P FP?替換為使用2D卷積提取全局特征,應(yīng)用于image及clothed-body normal map及僅應(yīng)用于clothed-body normal maps,結(jié)果表明在非同分布數(shù)據(jù)集CAPE-NFP上,重建表現(xiàn)比較差。
如圖6,作者對不同方法使用不同量級數(shù)據(jù)進(jìn)行訓(xùn)練,結(jié)果表明,ICON始終優(yōu)于其他方法,同時僅使用少量數(shù)據(jù)即可達(dá)到SOTA性能,作何歸因于使用局部特征,使得泛化性增強(qiáng).
人體3D重建-ICON論文解讀
4、表2-D,SMPL-X從圖像估計(jì)結(jié)果可能無法于圖中身體像素點(diǎn)完全對齊。ICON需要對SMPL-X shape及pose不同噪聲級別都比較魯棒,ICON+BR使用噪聲性能與PaMIR*使用真值性能相當(dāng)。

應(yīng)用

動畫生成。
作者將視頻幀進(jìn)行3D重建,重建結(jié)果輸入SCANimate,得到動畫輸出,如圖8b。
人體3D重建-ICON論文解讀

結(jié)論

作者提出的ICON可以從圖片魯棒地生成3D clothed-body person,其準(zhǔn)確性和真實(shí)性超越了現(xiàn)有方法。這有兩個關(guān)鍵:
1、使用3D body model,同時迭代優(yōu)化body model;
2、使用局部特征消除與全局姿態(tài)相關(guān)性;
問題:
如圖7,對于寬松衣服重建效果不佳,因?yàn)閎ody是在正交視角下訓(xùn)練的,無法產(chǎn)生透視效果,因此產(chǎn)生不對稱的四肢或解剖學(xué)上不可能的形狀。
人體3D重建-ICON論文解讀文章來源地址http://www.zghlxwxcb.cn/news/detail-415027.html

到了這里,關(guān)于人體3D重建-ICON論文解讀的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 收藏丨OpenDataLab 8個新上架的超大數(shù)據(jù)集資源分享,涵蓋高保真3D人體重建、3D車道線數(shù)據(jù)集等

    OpenDataLab平臺自上線以來,數(shù)據(jù)集覆蓋規(guī)模已經(jīng)超過4500個,任務(wù)類型超1200個,吸引了業(yè)界朋友的廣泛關(guān)注。 本文匯總了OpenDataLab平臺上架的多個領(lǐng)域超大規(guī)模數(shù)據(jù)集,內(nèi)含來自智能數(shù)字內(nèi)容、智能交通等研究團(tuán)隊(duì)發(fā)布的動態(tài)4D人臉數(shù)據(jù)集、高保真合成人體數(shù)據(jù)集、多模態(tài)人體

    2023年04月08日
    瀏覽(93)
  • 三維重建——商湯NeuralRecon算法詳解與論文解讀

    三維重建——商湯NeuralRecon算法詳解與論文解讀

    論文地址:https://arxiv.org/abs/2104.00681 代碼鏈接見文末 代碼詳解: https://blog.csdn.net/qq_52053775/article/details/128880856 ? ? ? ? 三維重建,就是將2D的圖片信息重建為3D的信息。應(yīng)用領(lǐng)域廣泛??梢詰?yīng)用于原型設(shè)計(jì)、虛擬現(xiàn)實(shí)等。 (1) 相機(jī)成像 ? ? ? ? 相機(jī)成像一般是小孔成像的原

    2024年02月13日
    瀏覽(28)
  • Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D Shapes 論文筆記&環(huán)境配置

    Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D Shapes 論文筆記&環(huán)境配置

    發(fā)布于 CVPR 2021 論文介紹了一種具有神經(jīng)SDF的復(fù)雜幾何實(shí)時渲染方法。 論文提出了一種神經(jīng)SDF表示,可以有效地捕獲多個LOD,并以最先進(jìn)的質(zhì)量重建3D幾何圖形。 論文中的架構(gòu)可以以比傳統(tǒng)方法具有更高視覺保真度的壓縮格式表示 3D 形狀,并且即使在單個學(xué)習(xí)示例中也能跨不

    2024年01月24日
    瀏覽(41)
  • CVPR 2018 | Spotlight論文:單攝像頭數(shù)秒構(gòu)建3D人體模型

    CVPR 2018 | Spotlight論文:單攝像頭數(shù)秒構(gòu)建3D人體模型

    想把自己的身體形象投射進(jìn)電子游戲里?現(xiàn)在已經(jīng)是很容易的事了。人工智能算法此前已被廣泛應(yīng)用于虛擬現(xiàn)實(shí)頭像、監(jiān)視、服裝試穿或電影等多種任務(wù)的人體建模上,但大多數(shù)方法需要特殊的照相設(shè)備來檢測景深,或從多個角度探查人體。近日,來自德國布倫瑞克工業(yè)大學(xué)

    2024年02月06日
    瀏覽(89)
  • 【論文閱讀】PSDF Fusion:用于動態(tài) 3D 數(shù)據(jù)融合和場景重建的概率符號距離函數(shù)

    【論文閱讀】PSDF Fusion:用于動態(tài) 3D 數(shù)據(jù)融合和場景重建的概率符號距離函數(shù)

    PSDF Fusion: Probabilistic Signed Distance Function for On-the-fly 3D Data Fusion and Scene Reconstruction We propose a novel 3D spatial representation for data fusion and scene reconstruction. Probabilistic Signed Distance Function (Probabilistic SDF, PSDF) is proposed to depict uncertainties in the 3D space. It is modeled by a joint distribution describing

    2024年02月03日
    瀏覽(89)
  • 論文閱讀 TripoSR: Fast 3D Object Reconstruction from a Single Image 單張圖片快速完成3D重建

    論文閱讀 TripoSR: Fast 3D Object Reconstruction from a Single Image 單張圖片快速完成3D重建

    本文為記錄自己在NeRF學(xué)習(xí)道路的一些筆記,包括對論文以及其代碼的思考內(nèi)容。公眾號: AI知識物語 B站講解:出門吃三碗飯 論文地址: https://arxiv.org/abs/2403.02151 代碼: https://github.com/VAST-AI-Research/Tr ipoSR 先來看下演示效果 TripoSR可以在0.5秒內(nèi)從單張圖片重建高質(zhì)量3D模型,并

    2024年04月14日
    瀏覽(23)
  • PIFuHD 筆記(單視圖人體重建)

    PIFuHD 筆記(單視圖人體重建)

    《 PIFuHD: Multi-Level Pixel-Aligned Implicit Function for High-Resolution 3D Human Digitization》 主頁:https://shunsukesaito.github.io/PIFuHD/ 論文:https://arxiv.org/abs/2004.00452 這里有一篇解讀 【三維重建】PIFuHD:Multi-Level Pixel-Aligned Implicit Function for High-Resolution 3D Human Digitization_Swocky的博客-CSDN博客 差不多就

    2024年02月04日
    瀏覽(17)
  • 3D目標(biāo)檢測--PointPillars論文和OpenPCDet代碼解讀

    3D目標(biāo)檢測--PointPillars論文和OpenPCDet代碼解讀

    解決傳統(tǒng)基于柵格化的3D目標(biāo)檢測方法在面對高密度點(diǎn)云數(shù)據(jù)時的性能瓶頸; 柵格化方法需要將點(diǎn)云數(shù)據(jù)映射到規(guī)則的網(wǎng)格中,但是對于高密度點(diǎn)云,柵格化操作會導(dǎo)致嚴(yán)重的信息損失和運(yùn)算效率低下; 因此,該論文提出了一種新的基于點(diǎn)云的3D目標(biāo)檢測方法——PointPillars,

    2023年04月22日
    瀏覽(26)
  • 論文解讀 | 用于3D對象檢測的PV-RCNN網(wǎng)絡(luò)

    論文解讀 | 用于3D對象檢測的PV-RCNN網(wǎng)絡(luò)

    原創(chuàng) | 文 BFT機(jī)器人? 01 背景 本文的背景涉及到3D物體檢測,這是一個在自動駕駛和機(jī)器人等領(lǐng)域應(yīng)用廣泛的重要問題。在這些領(lǐng)域,LiDAR傳感器被廣泛用于捕捉3D場景信息,生成不規(guī)則且稀疏的點(diǎn)云數(shù)據(jù)。這些點(diǎn)云數(shù)據(jù)提供了理解和感知3D場景的關(guān)鍵信息。然而,由于點(diǎn)云數(shù)據(jù)

    2024年02月09日
    瀏覽(18)
  • 3D目標(biāo)檢測概要及VoxelNet論文和代碼解讀(1)--Pillar VFE

    3D目標(biāo)檢測概要及VoxelNet論文和代碼解讀(1)--Pillar VFE

    點(diǎn)云和圖像都是自動駕駛中常用的傳感器數(shù)據(jù)類型,它們各自有不同的優(yōu)缺點(diǎn)。點(diǎn)云目標(biāo)檢測在自動駕駛領(lǐng)域中有著不可替代的優(yōu)勢,尤其是在需要精準(zhǔn)定位和避障的場景下,點(diǎn)云目標(biāo)檢測可以為自動駕駛車輛提供更為準(zhǔn)確和可靠的感知能力,點(diǎn)云的主要優(yōu)勢為: 三維信息豐

    2024年02月06日
    瀏覽(23)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包