国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

論文閱讀筆記《FLEX: Extrinsic Parameters-free Multi-view 3D Human Motion Reconstruction》

這篇具有很好參考價(jià)值的文章主要介紹了論文閱讀筆記《FLEX: Extrinsic Parameters-free Multi-view 3D Human Motion Reconstruction》。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

1.簡(jiǎn)介

在3D人體姿態(tài)估計(jì)中存在遮擋和模糊問(wèn)題,使用多相機(jī)可能會(huì)緩解這些困難,因?yàn)椴煌囊暯强梢匝a(bǔ)償這些遮擋并用于相互一致性。目前的3D人體姿態(tài)估計(jì)中大多數(shù)都是單視角的,有一部分是多視角的,但是他們的方法依賴于相機(jī)之間的相對(duì)位置,這要用到相機(jī)的外參。對(duì)于相機(jī)內(nèi)參的缺乏,一些方法可以嘗試去估計(jì)內(nèi)參,但是估計(jì)的值肯定會(huì)不準(zhǔn)確。

????????作者的工作引入了一個(gè)不需要外部參數(shù)的多視角運(yùn)動(dòng)重建,此工作建立在一個(gè)新的概念之上,使用眾所周知的關(guān)節(jié)旋轉(zhuǎn)和骨長(zhǎng)。此工作依賴于一個(gè)關(guān)鍵的見(jiàn)解,即對(duì)于所有視角而言,關(guān)節(jié)旋轉(zhuǎn)和骨長(zhǎng)是確定的,也就是說(shuō),骨架部分的3D角度與相機(jī)位置是沒(méi)有關(guān)系的,此時(shí)預(yù)測(cè)的是運(yùn)動(dòng)信息,而不是3D關(guān)節(jié)的位置,這就避免了對(duì)相機(jī)外參的依賴。如下圖:

論文閱讀筆記《FLEX: Extrinsic Parameters-free Multi-view 3D Human Motion Reconstruction》,論文閱讀,筆記,3d

????????作者的模型名叫FLEX,是一個(gè)端到端的深度卷積網(wǎng)絡(luò)。輸入是多視角的2D關(guān)節(jié),可以由2D關(guān)節(jié)檢測(cè)器檢測(cè)而來(lái),也可以是真實(shí)的2D關(guān)節(jié)坐標(biāo)。

????????目前3D姿態(tài)估計(jì)可以分為倆組,一組是直接從圖像中回歸出3D坐標(biāo),第二組是先對(duì)圖像進(jìn)行2D姿態(tài)估計(jì),然后將得到的2D姿態(tài)信息lifting3D空間。第一種方法受益于直接使用圖像,與2D關(guān)節(jié)位置相比,圖像的信息更多,第二組通過(guò)使用中間監(jiān)督獲益。在3D姿態(tài)估計(jì)中,通常是對(duì)一段視頻進(jìn)行運(yùn)動(dòng)重建,但現(xiàn)在很多工作都是使用一幀信息來(lái)預(yù)測(cè)此幀的3D姿態(tài)信息,沒(méi)有考慮到前后幀之間的聯(lián)系,而作者的工作使用了時(shí)間信息來(lái)重建運(yùn)動(dòng)。

2.模型

????????作者工作的baseline是一篇2020年發(fā)表在CVPR的論文(MotioNet: 3D Human Motion Reconstruction from Monocular Video with Skeleton Consistency),這是一個(gè)使用單視角的3D姿態(tài)估計(jì)的工作,這篇論文為了讓預(yù)測(cè)的運(yùn)動(dòng)更加絲滑,首次在3D姿態(tài)估計(jì)中引入FKforward kinematics,前向運(yùn)動(dòng)學(xué)),下面先介紹這篇MotioNet的網(wǎng)絡(luò)架構(gòu):

論文閱讀筆記《FLEX: Extrinsic Parameters-free Multi-view 3D Human Motion Reconstruction》,論文閱讀,筆記,3d

2D poses:T幀經(jīng)過(guò)2D姿態(tài)估計(jì)處理過(guò)的2D姿態(tài)位置;

Confidence values:用于數(shù)據(jù)增強(qiáng),對(duì)每個(gè)關(guān)節(jié)的2D位置進(jìn)行0~360°的偏移,位移距離由置信度值來(lái)決定,置信度值的來(lái)源是關(guān)節(jié)的經(jīng)驗(yàn)分布;

輸入:將2D poses經(jīng)過(guò)confidence values數(shù)據(jù)增強(qiáng)后輸入網(wǎng)絡(luò)之中

EQ:編碼器,對(duì)輸入的2D姿態(tài)信息進(jìn)行處理,預(yù)測(cè)出T組根位置+關(guān)節(jié)旋轉(zhuǎn)+腳接觸標(biāo)簽,定義兩個(gè)胯骨之間的關(guān)節(jié)點(diǎn)為根位置,因?yàn)檫@個(gè)關(guān)節(jié)點(diǎn)被遮擋的概率比較低,而且較易預(yù)測(cè)出來(lái),由于預(yù)測(cè)的關(guān)節(jié)旋轉(zhuǎn)是相對(duì)于根位置的旋轉(zhuǎn),因此需要預(yù)測(cè)出世界坐標(biāo)系下根的位置,從而能夠重建出世界坐標(biāo)系下的運(yùn)動(dòng),腳接觸標(biāo)簽是為了處理腳步滑動(dòng)偽影,設(shè)定地面位置為T幀圖像中腳部位置距離圖片底部最低的20%的均值,因?yàn)橐话愣技俣ㄈ颂幱趫D像的中間;

ES:編碼器,對(duì)輸入的2D姿態(tài)信息進(jìn)行處理,只需要預(yù)測(cè)出一組骨長(zhǎng);

D:鑒別器,判斷EQ預(yù)測(cè)的旋轉(zhuǎn)是否是真實(shí)的,由于逆運(yùn)動(dòng)學(xué)中存在的固有的模糊性,因此產(chǎn)生的旋轉(zhuǎn)和速度可能是不自然的,這可能導(dǎo)致將此旋轉(zhuǎn)信息用到骨架上會(huì)導(dǎo)致扭曲。求導(dǎo)操作是因?yàn)橹苯討?yīng)用于旋轉(zhuǎn)的損失可能不會(huì)收斂,而且數(shù)據(jù)集中不同樣本的T-poses未對(duì)齊,兩個(gè)相似的姿勢(shì)可能由不同的旋轉(zhuǎn)表示(初始位置不同,最終位置相同);

FK:根據(jù)旋轉(zhuǎn)信息對(duì)T-pose進(jìn)行旋轉(zhuǎn)操作,下圖可以解釋FK的過(guò)程,其中q表示四元數(shù)。

論文閱讀筆記《FLEX: Extrinsic Parameters-free Multi-view 3D Human Motion Reconstruction》,論文閱讀,筆記,3d

下面講解FLEX的網(wǎng)絡(luò)架構(gòu)

論文閱讀筆記《FLEX: Extrinsic Parameters-free Multi-view 3D Human Motion Reconstruction》,論文閱讀,筆記,3d

下面只對(duì)FLEX對(duì)MotioNet有改變的地方做一些介紹,主要是加了FQ和FS兩個(gè)融合層。

輸入有所改變,使用K個(gè)視角的視頻經(jīng)過(guò)2D姿態(tài)估計(jì)而來(lái)的2D姿態(tài)序列;

FQ:多視角卷積層+多頭注意力機(jī)制,其中多視角卷積層是為了能夠感知來(lái)自多個(gè)視角和多個(gè)幀的特征,

FS:僅有多頭注意力機(jī)制

EQ:此時(shí)預(yù)測(cè)的根位置就要針對(duì)不同的視角分別預(yù)測(cè)出對(duì)應(yīng)視角的根位置及其旋轉(zhuǎn)信息。

3.實(shí)驗(yàn)

論文閱讀筆記《FLEX: Extrinsic Parameters-free Multi-view 3D Human Motion Reconstruction》,論文閱讀,筆記,3d

上圖是在數(shù)據(jù)集Human3.6M下的結(jié)果,評(píng)測(cè)標(biāo)準(zhǔn)為MPJPE(Mean Per Joint Position Error,平均關(guān)節(jié)位置),可以看出多視圖的方法普遍優(yōu)于單視圖的方法。

論文閱讀筆記《FLEX: Extrinsic Parameters-free Multi-view 3D Human Motion Reconstruction》,論文閱讀,筆記,3d

上圖是在數(shù)據(jù)集Ski-Pose PTZ-Camera數(shù)據(jù)集下的結(jié)果,相機(jī)參數(shù)均為給出,前兩種方法使用的相機(jī)參數(shù)通過(guò)參數(shù)估計(jì)而給出。

論文閱讀筆記《FLEX: Extrinsic Parameters-free Multi-view 3D Human Motion Reconstruction》,論文閱讀,筆記,3d

上圖是比較平滑度,根據(jù)平均加速度來(lái)評(píng)價(jià),越小越好

論文閱讀筆記《FLEX: Extrinsic Parameters-free Multi-view 3D Human Motion Reconstruction》,論文閱讀,筆記,3d論文閱讀筆記《FLEX: Extrinsic Parameters-free Multi-view 3D Human Motion Reconstruction》,論文閱讀,筆記,3d

消融實(shí)驗(yàn),驗(yàn)證判斷注意力的影響, ??上圖為了驗(yàn)證視角數(shù)量的影響和使用

其中TE:Transformer Encoder, ??????2D姿態(tài)檢測(cè)與使用GT之間的區(qū)別

MHA:Multi-head Encoder,

L:堆疊層數(shù),

h:注意力頭的數(shù)量文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-764059.html

到了這里,關(guān)于論文閱讀筆記《FLEX: Extrinsic Parameters-free Multi-view 3D Human Motion Reconstruction》的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 3D卷積網(wǎng)絡(luò)論文閱讀筆記

    3D卷積網(wǎng)絡(luò)論文閱讀筆記

    數(shù)據(jù)集 BraTS 2020 數(shù)據(jù)增強(qiáng)方法 ? Flipping翻轉(zhuǎn): 以1/3的概率隨機(jī)沿著三個(gè)軸之一翻轉(zhuǎn) ? Rotation旋轉(zhuǎn): 從限定范圍(0到 15?或到30?或到60?或到90?)的均勻分布中隨機(jī)選擇角度旋轉(zhuǎn) ? Scale縮放: 通過(guò)從范圍為±10%或?yàn)椤?0%的均勻分布中隨機(jī)選擇的因子,對(duì)每個(gè)軸進(jìn)行縮放 ? Br

    2023年04月10日
    瀏覽(26)
  • LIME論文閱讀筆記

    LIME論文閱讀筆記

    這是暗圖增強(qiáng)領(lǐng)域一篇經(jīng)典的傳統(tǒng)方法論文,發(fā)表在TIP這個(gè)頂刊 文章基于的是這樣一個(gè)公式: L = R ? T L=Rcdot T L = R ? T 其中, L L L 是暗圖, R R R 是反射分量, T T T 是illumination map,并且對(duì)于彩色圖像來(lái)說(shuō),三通道都共享相同的illumination map。我們可以使用各種方法估計(jì) T

    2024年02月09日
    瀏覽(27)
  • 論文閱讀筆記(一)

    論文閱讀筆記(一)

    發(fā)表年份: 2016 主要貢獻(xiàn): 提出了Multimodal Opinion-level Sentiment Intensity (MOSI) 數(shù)據(jù)集 提出了多模態(tài)情緒分析未來(lái)研究的基線 提出了一種新的多模態(tài)融合方式 在這些在線意見(jiàn)視頻中研究情緒主要面臨的挑戰(zhàn)和解決方法: 挑戰(zhàn) 解決方法 這些視頻的不穩(wěn)定性和快節(jié)奏性。演講者經(jīng)

    2023年04月09日
    瀏覽(23)
  • Retinexformer 論文閱讀筆記

    Retinexformer 論文閱讀筆記

    清華大學(xué)、維爾茲堡大學(xué)和蘇黎世聯(lián)邦理工學(xué)院在ICCV2023的一篇transformer做暗圖增強(qiáng)的工作,開(kāi)源。 文章認(rèn)為,Retinex的 I = R ⊙ L I=Rodot L I = R ⊙ L 假設(shè)干凈的R和L,但實(shí)際上由于噪聲,并不干凈,所以分別為L(zhǎng)和R添加干擾項(xiàng),把公式改成如下: 本文采用先預(yù)測(cè) L  ̄ overline L

    2024年01月21日
    瀏覽(24)
  • GPT-3 論文閱讀筆記

    GPT-3 論文閱讀筆記

    GPT-3模型出自論文《Language Models are Few-Shot Learners》是OpenAI在2020年5月發(fā)布的。 論文摘要翻譯 :最近的工作表明,通過(guò)對(duì)大量文本進(jìn)行預(yù)訓(xùn)練,然后對(duì)特定任務(wù)進(jìn)行微調(diào)(fine-tuning),在許多NLP任務(wù)和基準(zhǔn)測(cè)試上取得了實(shí)質(zhì)性的進(jìn)展。雖然這種方法在架構(gòu)上通常與任務(wù)無(wú)關(guān),但它

    2024年02月12日
    瀏覽(29)
  • 論文閱讀筆記2:NetVLAD

    題目:NetVLAD: CNN Architecture for Weakly Supervised Place Recognition:、 團(tuán)隊(duì): PSL Research University/Tokyo Institute of Technology 解決的問(wèn)題: 我們解決了大規(guī)模視覺(jué)位置識(shí)別的問(wèn)題,其任務(wù)是快速準(zhǔn)確地識(shí)別給定查詢照片的位置 創(chuàng)新點(diǎn): 這篇文章主要有3個(gè)創(chuàng)新點(diǎn): 1. 為場(chǎng)景識(shí)別任務(wù)構(gòu)造出

    2024年02月11日
    瀏覽(25)
  • 論文閱讀筆記整理(持續(xù)更新)

    FAST 2021 Paper?泛讀筆記 針對(duì)LSM樹同時(shí)優(yōu)化讀寫性能的問(wèn)題,現(xiàn)有方法通過(guò)壓縮提升讀性能,但會(huì)導(dǎo)致讀放大或?qū)懛糯?。作者利用新存?chǔ)硬件的性能,隨機(jī)讀和順序讀性能相近,因此提出構(gòu)建邏輯排序視圖優(yōu)化范圍查詢,因?yàn)闇p少了真正的壓縮操作,同時(shí)減少了寫放大。 ATC 2

    2024年01月23日
    瀏覽(54)
  • InstructGPT 論文閱讀筆記

    InstructGPT 論文閱讀筆記

    目錄 簡(jiǎn)介 數(shù)據(jù)集? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?? 詳細(xì)實(shí)現(xiàn) 實(shí)驗(yàn)結(jié)果 參考資料 InstructGPT 模型是在論文《Training language models to follow instructions with human feedback》被提出的,OpenAI在2022年1月發(fā)布了這篇文章。 論文摘要翻譯 :把語(yǔ)言模型做得更大并不意味著讓它們更好的遵循

    2024年02月01日
    瀏覽(31)
  • GAN 論文閱讀筆記(6)

    GAN 論文閱讀筆記(6)

    原論文:MyStyle++: A Controllable Personalized Generative Prior 發(fā)表于:CVPR2023 注:本篇論文為 《MyStyle: A Personalized Generative Prior》 的改進(jìn),當(dāng)遇到不理解的地方可以參照前一篇閱讀筆記 圖 1:MyStyle++ 在圖像合成,編輯和增強(qiáng)上的表現(xiàn) 1:MyStyle MyStyle 是一種 GAN 模型的改進(jìn)模型。其打算

    2024年01月18日
    瀏覽(28)
  • PointMixer論文閱讀筆記

    MLP-mixer是最近很流行的一種網(wǎng)絡(luò)結(jié)構(gòu),比起Transformer和CNN的節(jié)構(gòu)笨重,MLP-mixer不僅節(jié)構(gòu)簡(jiǎn)單,而且在圖像識(shí)別方面表現(xiàn)優(yōu)異。但是MLP-mixer在點(diǎn)云識(shí)別方面表現(xiàn)欠佳,PointMixer就是在保留了MLP-mixer優(yōu)點(diǎn)的同時(shí),還可以很好的處理點(diǎn)云問(wèn)題。PointMixer可以很好的處理intra-set, inter-set

    2024年02月19日
    瀏覽(16)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包