国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

HumanNeRF(CVPR2022 oral)-人體重建論文閱讀

這篇具有很好參考價值的文章主要介紹了HumanNeRF(CVPR2022 oral)-人體重建論文閱讀。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。


論文: 《HumanNeRF: Free-viewpoint Rendering of Moving People from Monocular Video》
github: https://github.com/chungyiweng/humannerf

解決問題

作者提出HumanNeRF,給出復(fù)雜動作人體單視角視頻,暫停任一幀渲染出任意視角下該人體,甚至360度視角下該人體;
HumanNeRF優(yōu)化了人在標(biāo)準(zhǔn)T姿勢下的表征,與運動場相一致,該運動場通過向后扭曲將估計的規(guī)范表征映射到視頻的每一幀;運動場解耦為骨骼剛性及非剛性運動;

算法

人體表征為神經(jīng)場

HumanNeRF框架如圖2,
HumanNeRF(CVPR2022 oral)-人體重建論文閱讀,論文詳解,3D重建,論文閱讀,計算機視覺,NeRF
作者扭曲標(biāo)準(zhǔn)空間 F c F_c Fc?至可見空間 F o F_o Fo?,如式1,
HumanNeRF(CVPR2022 oral)-人體重建論文閱讀,論文詳解,3D重建,論文閱讀,計算機視覺,NeRF
F c F_c Fc?映射標(biāo)準(zhǔn)空間位置x至顏色c及密度σ, T T T表示運動場將可見點映射至標(biāo)準(zhǔn)空間,其中位置 p = ( J , ? ) p=(J, ?) p=(J,?),J包括K個標(biāo)準(zhǔn)3D關(guān)鍵點位置, ? = { ω i } ? = \{ωi\} ?={ωi}為局部關(guān)鍵點角向量;
為了處理復(fù)雜人體運動,作者將運動場 T T T解耦為骨骼驅(qū)動變形 T s k e l T_{skel} Tskel?及位置偏移 T N R T_{NR} TNR?,如式2,
HumanNeRF(CVPR2022 oral)-人體重建論文閱讀,論文詳解,3D重建,論文閱讀,計算機視覺,NeRF
根據(jù) T s k e l T_{skel} Tskel?結(jié)果生成偏移,用于補充非剛性變形,比如衣服變形;由于現(xiàn)成的3D姿態(tài)估計不夠準(zhǔn)確,作者通過姿態(tài)糾正函數(shù)Ppose解決;將式2中 T s k e l ( x , p ) T_{skel}(x, p) Tskel?(x,p) 替換為 T s k e l ( x , P p o s e ( p ) ) T_{skel}(x, P_{pose}(p)) Tskel?(x,Ppose?(p))。

Canonical volume

F c F_c Fc?表示一個連續(xù)場,根據(jù)任一點x可輸出顏色c及密度σ,如式3,其中γ表示正弦位置編碼;
HumanNeRF(CVPR2022 oral)-人體重建論文閱讀,論文詳解,3D重建,論文閱讀,計算機視覺,NeRF

Skeletal motion

T s k e l T_{skel} Tskel?為blend skin將可見空間中的點映射至標(biāo)準(zhǔn)空間,如式4,
HumanNeRF(CVPR2022 oral)-人體重建論文閱讀,論文詳解,3D重建,論文閱讀,計算機視覺,NeRF
其中 w o i w^i_o woi?表示第i個關(guān)節(jié)蒙皮權(quán)重,計算公式如式5, R i R_i Ri?, t i t_i ti?分別表示可見空間到標(biāo)準(zhǔn)空間關(guān)鍵旋轉(zhuǎn)及平移量,其可依據(jù)p進行計算;在標(biāo)準(zhǔn)空間求解蒙皮權(quán)重而不是在N張圖可見空間求解,可避免過擬合;
HumanNeRF(CVPR2022 oral)-人體重建論文閱讀,論文詳解,3D重建,論文閱讀,計算機視覺,NeRF
作者沒有使用MLP進行編碼 W c ( x ) = { w c i ( x ) } W_c(x)=\{w^i_c(x)\} Wc?(x)={wci?(x)},而是使用顯示表示,一方面由于需要K個MLP,優(yōu)化不靈活;另一方面,對于小分辨率通過三線性插值提供平滑度,便于后續(xù)優(yōu)化;作者利用隨機編碼z,通過CNN生成 W c W_c Wc?,如式6
HumanNeRF(CVPR2022 oral)-人體重建論文閱讀,論文詳解,3D重建,論文閱讀,計算機視覺,NeRF

Non-rigid motion

T N R T_{NR} TNR?生成位置偏移, ? x ( x , p ) = T N R ( T s k e l ( x , p ) , p ) ) ?x(x, p) = T_{NR}(T_{skel}(x, p), p)) ?x(x,p)=TNR?(Tskel?(x,p),p)),為捕獲更多細節(jié),作者使用MLP表示 T N R T_{NR} TNR?,如式7,
HumanNeRF(CVPR2022 oral)-人體重建論文閱讀,論文詳解,3D重建,論文閱讀,計算機視覺,NeRF

Pose correction

根據(jù)圖片進行人體姿勢估計通常不準(zhǔn)確,因此姿態(tài)糾正模塊通過固定關(guān)鍵點學(xué)習(xí)偏移角,姿態(tài)估計如式8,
HumanNeRF(CVPR2022 oral)-人體重建論文閱讀,論文詳解,3D重建,論文閱讀,計算機視覺,NeRF
姿態(tài)偏移如式9所示,作者通過MLP模塊實現(xiàn),
HumanNeRF(CVPR2022 oral)-人體重建論文閱讀,論文詳解,3D重建,論文閱讀,計算機視覺,NeRF
因此可見空間到標(biāo)準(zhǔn)空間由式2重構(gòu)為式10
HumanNeRF(CVPR2022 oral)-人體重建論文閱讀,論文詳解,3D重建,論文閱讀,計算機視覺,NeRF

HumanNeRF優(yōu)化

優(yōu)化函數(shù)如式11
HumanNeRF(CVPR2022 oral)-人體重建論文閱讀,論文詳解,3D重建,論文閱讀,計算機視覺,NeRF

體渲染

顏色渲染如式12,作者沒有使用NeRF中分層級采樣,而是在目標(biāo)框內(nèi)進行采樣
HumanNeRF(CVPR2022 oral)-人體重建論文閱讀,論文詳解,3D重建,論文閱讀,計算機視覺,NeRF
當(dāng)前景概率f(x)比較低時,進一步定義αi如式13,
HumanNeRF(CVPR2022 oral)-人體重建論文閱讀,論文詳解,3D重建,論文閱讀,計算機視覺,NeRF

非剛性運動場延遲優(yōu)化

由于骨架驅(qū)動與非剛性運動未解耦,目標(biāo)骨骼運動一部分由非剛性運動建模所得,而非剛性運動過擬合到輸入圖片,因此渲染不可見區(qū)域時質(zhì)量不高;
為解決此問題,作者對非剛性運動MLP θNR,將截斷的Hann window應(yīng)用于位置編碼頻率帶,防止數(shù)據(jù)過擬合,作者定于位置編碼頻率帶j的權(quán)重如式14,
HumanNeRF(CVPR2022 oral)-人體重建論文閱讀,論文詳解,3D重建,論文閱讀,計算機視覺,NeRF
τ 定義如式15,通過設(shè)置τ = 0可關(guān)閉非剛性場優(yōu)化;
HumanNeRF(CVPR2022 oral)-人體重建論文閱讀,論文詳解,3D重建,論文閱讀,計算機視覺,NeRF

損失函數(shù)及ray sampling Loss

作者使用MSE進行像素級匹配,感知損失LPIPS改進細節(jié)一致性,對輕微錯位及陰影變換比較魯棒;
HumanNeRF(CVPR2022 oral)-人體重建論文閱讀,論文詳解,3D重建,論文閱讀,計算機視覺,NeRF
作者采樣G個patch,每個patch為HH,訓(xùn)練時每個batch渲染GH*H個射線,渲染結(jié)果與輸入圖相同位置進行比較;

實驗

對于無標(biāo)注視頻,作者使用SPIN獲取近似相機參數(shù)、人體姿態(tài),自動分割目標(biāo)前景,并手動矯正分割結(jié)果;
與其他方法比較如表2,
HumanNeRF(CVPR2022 oral)-人體重建論文閱讀,論文詳解,3D重建,論文閱讀,計算機視覺,NeRF
量化結(jié)果如表1,HumanNeRF超越Neural Body
HumanNeRF(CVPR2022 oral)-人體重建論文閱讀,論文詳解,3D重建,論文閱讀,計算機視覺,NeRF
圖3展示可視化結(jié)果,HumanNeRF優(yōu)于Neural Body,即使未見過視角,也可生成與真值相似結(jié)果;
HumanNeRF(CVPR2022 oral)-人體重建論文閱讀,論文詳解,3D重建,論文閱讀,計算機視覺,NeRF
圖5展示在YouTube視頻上高質(zhì)量結(jié)果;
HumanNeRF(CVPR2022 oral)-人體重建論文閱讀,論文詳解,3D重建,論文閱讀,計算機視覺,NeRF

消融實驗

表3展示增加非剛性變形,帶來進一步收益;
HumanNeRF(CVPR2022 oral)-人體重建論文閱讀,論文詳解,3D重建,論文閱讀,計算機視覺,NeRF
圖6展示非剛性場及姿態(tài)糾正對不可見視角渲染重要性
HumanNeRF(CVPR2022 oral)-人體重建論文閱讀,論文詳解,3D重建,論文閱讀,計算機視覺,NeRF

討論

當(dāng)視頻中身體一部分不可見時,仍會產(chǎn)生噪點;姿態(tài)就剩改進圖像對齊,但若開始姿態(tài)估計不準(zhǔn)確就剩模塊將失效;作者假設(shè)非剛性場時姿態(tài)相關(guān)的,但是并不總是正確,比如風(fēng)將衣服移動;對于公開視頻數(shù)據(jù)需要人工矯正分割結(jié)果;

結(jié)論

HumanNeRF從單目視頻中移動人體自由視角渲染取得SOTA結(jié)果;作者通過仔細建模人體姿態(tài)、人體運動及正則項優(yōu)化實現(xiàn)。文章來源地址http://www.zghlxwxcb.cn/news/detail-610839.html

到了這里,關(guān)于HumanNeRF(CVPR2022 oral)-人體重建論文閱讀的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • TPS Motion(CVPR2022)視頻生成論文解讀

    TPS Motion(CVPR2022)視頻生成論文解讀

    論文: 《Thin-Plate Spline Motion Model for Image Animation》 github: https://github.com/yoyo-nb/Thin-Plate-Spline-Motion-Model 問題: 盡管當(dāng)前有些工作使用無監(jiān)督方法進可行任意目標(biāo)姿態(tài)遷移,但是當(dāng)源圖與目標(biāo)圖差異大時,對當(dāng)前無監(jiān)督方案來說仍然具有挑戰(zhàn)。 方法: 本文提出無監(jiān)督TPS Motio

    2023年04月11日
    瀏覽(103)
  • 【論文閱讀】CVPR2023 IGEV-Stereo

    【論文閱讀】CVPR2023 IGEV-Stereo

    【cvhub導(dǎo)讀】【paper】【code_openi】 代碼是啟智社區(qū)的鏡像倉庫,不需要魔法,點擊這里注冊 1??現(xiàn)有主流方法 基于代價濾波的方法 和 基于迭代優(yōu)化的方法 : 基于 代價濾波 的方法可以在cost volume中編碼足夠的 非局部幾何和上下文信息 ,這對于具有挑戰(zhàn)性的區(qū)域中的視差預(yù)

    2024年02月07日
    瀏覽(95)
  • 【論文閱讀】Neuralangelo:高保真神經(jīng)表面重建

    【論文閱讀】Neuralangelo:高保真神經(jīng)表面重建

    paper project 神經(jīng)表面重建已被證明對于通過基于圖像的神經(jīng)渲染恢復(fù)密集的 3D 表面非常有效。然而,當(dāng)前的方法難以恢復(fù)真實場景的詳細結(jié)構(gòu)。為了解決這個問題,我們提出了 Neuralangelo,它將多分辨率 3D 哈希網(wǎng)格的表示能力與神經(jīng)表面渲染相結(jié)合。兩個關(guān)鍵因素使我們的方

    2024年02月11日
    瀏覽(89)
  • 【通過改變壓縮視頻的分辨率實現(xiàn)高效的視頻語義分割】CVPR2022論文精度

    Title: Ef?cient Semantic Segmentation by Altering Resolutions for Compressed Videos (通過改變壓縮視頻的分辨率實現(xiàn)高效的語義分割) Authors: Yubin Hu, Yuze He, Yanghao Li, Jisheng Li, Yuxing Han, Jiangtao Wen, Yong-Jin Liu (胡宇斌, 何宇澤, 李洋浩, 李繼升, 韓宇星, 溫江濤, 劉永金) Affiliation: Department of Computer Sci

    2024年02月15日
    瀏覽(88)
  • 【論文簡述】Cross-Attentional Flow Transformer for Robust Optical Flow(CVPR 2022)

    【論文簡述】Cross-Attentional Flow Transformer for Robust Optical Flow(CVPR 2022)

    1. 第一作者: Xiuchao Sui、Shaohua Li 2. 發(fā)表年份: 2021 3. 發(fā)表期刊: arxiv 4. : 光流、Transformer、自注意力、交叉注意力、相關(guān)體 5. 探索動機: 由于卷積的局部性和剛性權(quán)重,有限的上下文信息被納入到像素特征中,并且計算出的相關(guān)性具有很高的隨機性,以至于大多數(shù)

    2024年02月03日
    瀏覽(95)
  • 《Masked Image Training for Generalizable Deep Image Denoising》——CVPR23論文閱讀筆記

    《Masked Image Training for Generalizable Deep Image Denoising》——CVPR23論文閱讀筆記

    Project page: https://github.com/haoyuc/MaskedDenoising 前提:在捕獲和存儲圖像時,設(shè)備不可避免地會引入噪聲。減少這種噪聲是一項關(guān)鍵任務(wù),稱為圖像去噪。深度學(xué)習(xí)已經(jīng)成為圖像去噪的事實方法,尤其是隨著基于Transformer的模型的出現(xiàn),這些模型在各種圖像任務(wù)上都取得了顯著的最

    2024年03月15日
    瀏覽(92)
  • 論文閱讀: (CVPR2023 SDT )基于書寫者風(fēng)格和字符風(fēng)格解耦的手寫文字生成及源碼對應(yīng)

    論文閱讀: (CVPR2023 SDT )基于書寫者風(fēng)格和字符風(fēng)格解耦的手寫文字生成及源碼對應(yīng)

    引言 許久不認真看論文了,這不趕緊撿起來。這也是自己看的第一篇用到Transformer結(jié)構(gòu)的CV論文。 之所以選擇這篇文章來看,是考慮到之前做過手寫字體生成的項目。這個工作可以用來合成一些手寫體數(shù)據(jù)集,用來輔助手寫體識別模型的訓(xùn)練。 本篇文章將從論文與代碼一一對

    2024年02月12日
    瀏覽(96)
  • 【論文閱讀】PSDF Fusion:用于動態(tài) 3D 數(shù)據(jù)融合和場景重建的概率符號距離函數(shù)

    【論文閱讀】PSDF Fusion:用于動態(tài) 3D 數(shù)據(jù)融合和場景重建的概率符號距離函數(shù)

    PSDF Fusion: Probabilistic Signed Distance Function for On-the-fly 3D Data Fusion and Scene Reconstruction We propose a novel 3D spatial representation for data fusion and scene reconstruction. Probabilistic Signed Distance Function (Probabilistic SDF, PSDF) is proposed to depict uncertainties in the 3D space. It is modeled by a joint distribution describing

    2024年02月03日
    瀏覽(89)
  • 【論文閱讀】通過3D和2D網(wǎng)絡(luò)的交叉示教實現(xiàn)稀疏標(biāo)注的3D醫(yī)學(xué)圖像分割(CVPR2023)

    【論文閱讀】通過3D和2D網(wǎng)絡(luò)的交叉示教實現(xiàn)稀疏標(biāo)注的3D醫(yī)學(xué)圖像分割(CVPR2023)

    論文:3D Medical Image Segmentation with Sparse Annotation via Cross-Teaching between 3D and 2D Networks 代碼:https://github.com/hengcai-nju/3d2dct 問題1 :醫(yī)學(xué)圖像分割通常需要大量且精確標(biāo)注的數(shù)據(jù)集。但是獲取像素級標(biāo)注是一項勞動密集型的任務(wù),需要領(lǐng)域?qū)<腋冻鼍薮蟮呐Γ@使得在實際臨床場

    2024年02月05日
    瀏覽(82)
  • 圖像融合論文閱讀:ReFusion:通過元學(xué)習(xí)的從可學(xué)習(xí)損失重建中學(xué)習(xí)圖像融合

    圖像融合論文閱讀:ReFusion:通過元學(xué)習(xí)的從可學(xué)習(xí)損失重建中學(xué)習(xí)圖像融合

    @article{bai2023refusion, title={ ReFusion: Learning Image Fusion from Reconstruction with Learnable Loss via Meta-Learning }, author={Bai, Haowen and Zhao, Zixiang and Zhang, Jiangshe and Wu, Yichen and Deng, Lilun and Cui, Yukun and Xu, Shuang and Jiang, Baisong}, journal={arXiv preprint arXiv:2312.07943}, year={2023} } 論文級別:arXiv 影響因子:

    2024年01月25日
    瀏覽(104)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包