国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

論文筆記: NSG: Neural Scene Graphs for Dynamic Scenes

這篇具有很好參考價值的文章主要介紹了論文筆記: NSG: Neural Scene Graphs for Dynamic Scenes。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報違法"按鈕提交疑問。

1.目標(biāo):

對動態(tài)場景進(jìn)行渲染,完成動態(tài)前景與背景分離、背景inpainting、動態(tài)前景編輯和新視角生成。

2.動機(jī):

之前的方法如nerf只能夠渲染靜態(tài)場景(利用的是靜態(tài)場景在多視角下的一致性),如將整張圖像場景中的所有物體編碼進(jìn)單個神經(jīng)網(wǎng)絡(luò)中,缺乏表征動態(tài)物體和將這些物體分解為單個物體的能力。

3.貢獻(xiàn):

1、提出了一種新的神經(jīng)渲染方法,將動態(tài)的多目標(biāo)場景分解為一個具有,經(jīng)過解耦的目標(biāo)運(yùn)動與場景表征,的場景圖。

2、直接從一個序列的視頻幀與對應(yīng)的跟蹤數(shù)據(jù)中學(xué)習(xí)每個場景中節(jié)點(diǎn)(物體)的表征。并對一類實(shí)例(如卡車,汽車)使用共享的體積表征。

3、能夠給完全不可見的動態(tài)物體渲染新視圖,例如在一個場景中加入該場景中不存在的動態(tài)物體。

4、能夠通過逆渲染方式完成3D目標(biāo)檢測。

4.方法:

neural scene graphs for dynamic scenes,論文閱讀

1.場景圖定義:

定義了一個場景圖S:

neural scene graphs for dynamic scenes,論文閱讀

其中W代表世界節(jié)點(diǎn),C代表相機(jī)節(jié)點(diǎn),F(xiàn)代表物體類別,包含了靜態(tài)背景與每個類別的動態(tài)目標(biāo),L代表每個具體物體的表征latent,,E代表不同節(jié)點(diǎn)之間的仿射變換,如局部和全局坐標(biāo)系之間的變換。

由于同一個類別共享一種外形,所以對于每個具體個體需要計算一個尺寸變換參數(shù)S0,用于表達(dá)每個具體物體的外形尺寸。

2.網(wǎng)絡(luò)結(jié)構(gòu):

neural scene graphs for dynamic scenes,論文閱讀

使用單個nerf模型對靜態(tài)背景進(jìn)行統(tǒng)一的建模表達(dá);對動態(tài)物體進(jìn)行類別級nerf建模表達(dá),即每個類別的物體對應(yīng)一個獨(dú)立的模型;對每個具體的動態(tài)個體,加入表征個體信息的隱變量L與P。L可以理解為該物體的具體外形shape,P可以理解為該物體的具體外觀appearance。

動態(tài)物體局部的3D坐標(biāo)(修正并與物體的姿態(tài)對齊)可由全局坐標(biāo)經(jīng)過變換得到:

neural scene graphs for dynamic scenes,論文閱讀

其中T是變換矩陣,S0是尺寸變換參數(shù),采用的是每個物體bounding box的尺寸的倒數(shù)。這樣可以使得網(wǎng)絡(luò)能夠?qū)W習(xí)到不依賴于尺寸的相似性。

neural scene graphs for dynamic scenes,論文閱讀

渲染的pipline和流程:

1.用場景圖對場景進(jìn)行建模。

2.采樣光線的路徑上對點(diǎn)進(jìn)行采樣,落在動態(tài)物體bounding box內(nèi)的為動態(tài)前景采樣點(diǎn),其它的為靜態(tài)背景采樣點(diǎn)。

3.對每個采樣點(diǎn)使用對應(yīng)的nerf模型進(jìn)行體密度和RGB預(yù)測,并經(jīng)過體渲染獲得每條光線的最終RGB值。

靜態(tài)背景:

初始(t=0)相機(jī)坐標(biāo)系下,near clip 和 far clip 之間定義與圖像平面平行的N個等距平面,對于任意一條光線,背景節(jié)點(diǎn)采樣點(diǎn)是光線與逐個平面的交點(diǎn)。

動態(tài)物體:

首先把光線變到物體的local坐標(biāo)系,然后計算每條射線方向和所有動態(tài)物體的bbox交點(diǎn)的起點(diǎn)與終點(diǎn),然后在起點(diǎn)與終點(diǎn)之間采樣Nd個點(diǎn)即為采樣點(diǎn)。

3.結(jié)果:

neural scene graphs for dynamic scenes,論文閱讀

neural scene graphs for dynamic scenes,論文閱讀

能夠?qū)崿F(xiàn)動態(tài)物體的旋轉(zhuǎn)平移,并盡量保證光照和陰影的保持與變換。

neural scene graphs for dynamic scenes,論文閱讀

neural scene graphs for dynamic scenes,論文閱讀

能夠?qū)崿F(xiàn)場景的編輯,如動態(tài)車輛的加入,移除,排列等。

neural scene graphs for dynamic scenes,論文閱讀

neural scene graphs for dynamic scenes,論文閱讀

在定性結(jié)果和定量指標(biāo)中,均能獲得sota效果。文章來源地址http://www.zghlxwxcb.cn/news/detail-795118.html

到了這里,關(guān)于論文筆記: NSG: Neural Scene Graphs for Dynamic Scenes的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 論文閱讀《Block-NeRF: Scalable Large Scene Neural View Synthesis》

    論文閱讀《Block-NeRF: Scalable Large Scene Neural View Synthesis》

    論文地址:https://arxiv.org/pdf/2202.05263.pdf 復(fù)現(xiàn)源碼:https://github.com/dvlab-research/BlockNeRFPytorch ??Block-NeRF是一種能夠表示大規(guī)模環(huán)境的神經(jīng)輻射場(Neural Radiance Fields)的變體,將 NeRF 擴(kuò)展到渲染跨越多個街區(qū)的城市規(guī)模場景。該方法將場景分解為單獨(dú)訓(xùn)練的 NeRF,使渲染時間與

    2024年02月03日
    瀏覽(20)
  • [論文筆記]Glancing Transformer for Non-Autoregressive Neural Machine Translation

    [論文筆記]Glancing Transformer for Non-Autoregressive Neural Machine Translation

    這是論文Glancing Transformer for Non-Autoregressive Neural Machine Translation的筆記。 傳統(tǒng)的非自回歸文本生成速度較慢,因?yàn)樾枰o定之前的token來預(yù)測下一個token。但自回歸模型雖然效率高,但性能沒那么好。 這篇論文提出了Glancing Transformer,可以只需要一次解碼,并行地文本生成。并

    2024年02月12日
    瀏覽(19)
  • 論文筆記:Dual Dynamic Spatial-Temporal Graph ConvolutionNetwork for Traffic Prediction

    論文筆記:Dual Dynamic Spatial-Temporal Graph ConvolutionNetwork for Traffic Prediction

    IEEE TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS 2022 GCN和TCN被引入到交通預(yù)測中 GCN能夠保留交通網(wǎng)絡(luò)的圖結(jié)構(gòu)信息 TCN能夠捕獲交通流的時間特征 基于GCN的交通預(yù)測方法依賴于如何構(gòu)建圖或鄰接矩陣 將道路段的交通測量作為節(jié)點(diǎn) 通過不同道路段的直接連接來構(gòu)建圖 道路段上的交通

    2024年02月03日
    瀏覽(54)
  • SimVODIS++: Neural Semantic Visual Odometry in Dynamic Environments 論文閱讀

    SimVODIS++: Neural Semantic Visual Odometry in Dynamic Environments 論文閱讀

    題目 :SimVODIS++: Neural Semantic Visual Odometry in Dynamic Environments 作者 :Ue-Hwan Kim , Se-Ho Kim , and Jong-Hwan Kim , Fellow, IEEE 時間 :2022 來源 : IEEE ROBOTICS AND AUTOMATION LETTERS(RAL) 語義的缺乏和動態(tài)對象導(dǎo)致的性能下降阻礙了其在現(xiàn)實(shí)場景中的應(yīng)用。 為了克服這些限制,我們在Simultanero

    2024年02月09日
    瀏覽(17)
  • SRM : A Style-based Recalibration Module for Convolutional Neural Networks論文筆記

    SRM : A Style-based Recalibration Module for Convolutional Neural Networks論文筆記

    整體結(jié)構(gòu)圖: Style Pooling風(fēng)格池部分: Style Integration風(fēng)格集成部分 1.提出了一個基于風(fēng)格的重新校準(zhǔn)模塊(SRM),他通過利用中間特征映射的風(fēng)格來自適應(yīng)地重新校準(zhǔn)。 2.SRM首先通過樣式池從特征圖的每個通道中提取樣式信息,然后通過獨(dú)立于通道的樣式集成估計每個通道的重校

    2024年02月11日
    瀏覽(21)
  • Learning to Super-resolve Dynamic Scenes for Neuromorphic Spike Camera論文筆記

    Learning to Super-resolve Dynamic Scenes for Neuromorphic Spike Camera論文筆記

    脈沖相機(jī)使用了“integrate and fire”機(jī)制來生成連續(xù)的脈沖流,以極高的時間分辨率來記錄動態(tài)光照強(qiáng)度。但是極高的時間分辨率導(dǎo)致了受限的空間分辨率,致使重建出的圖像無法很好保留原始場景的細(xì)節(jié)。為了解決這個問題,這篇文章提出了SpikeSR-Net來從低分辨率二進(jìn)制脈沖

    2024年02月12日
    瀏覽(23)
  • 【論文筆記】FasterNet:Run, Don’t Walk: Chasing Higher FLOPS for Faster Neural Networks

    【論文筆記】FasterNet:Run, Don’t Walk: Chasing Higher FLOPS for Faster Neural Networks

    為了設(shè)計快速神經(jīng)網(wǎng)絡(luò),許多工作都集中在減少浮點(diǎn)運(yùn)算(FLOPs)的數(shù)量上。然而,作者觀察到FLOPs的這種減少不一定會帶來延遲的類似程度的減少。這主要源于每秒低浮點(diǎn)運(yùn)算(FLOPS)效率低下。 為了實(shí)現(xiàn)更快的網(wǎng)絡(luò),作者重新回顧了FLOPs的運(yùn)算符,并證明了如此低的FLOPS主

    2024年02月07日
    瀏覽(14)
  • 2023 Mask R-CNN 改進(jìn):DynaMask: Dynamic Mask Selection for Instance Segmentation 論文筆記

    2023 Mask R-CNN 改進(jìn):DynaMask: Dynamic Mask Selection for Instance Segmentation 論文筆記

    寫在前面 ??本周更新的第二篇論文閱讀,2023年每周一篇博文,還剩5篇未補(bǔ),繼續(xù)加油~ 論文地址:DynaMask: Dynamic Mask Selection for Instance Segmentation 代碼地址:https://github.com/lslrh/DynaMask 收錄于:CVPR 2023 歡迎關(guān)注,主頁更多干貨,持續(xù)輸出中~ ??一般的實(shí)例分割通常采用固定

    2024年02月01日
    瀏覽(50)
  • 【論文閱讀】Know Your Surroundings: Exploiting Scene Information for Object Tracking

    【論文閱讀】Know Your Surroundings: Exploiting Scene Information for Object Tracking

    發(fā)表時間 :2020 期刊會議 :ECCV 方向分類 : 目標(biāo)跟蹤 做了什么: 本文提出了一個能夠在視頻序列中傳播目標(biāo)附近場景信息的跟蹤結(jié)構(gòu),這種場景信息被用來實(shí)現(xiàn)提高目標(biāo)預(yù)測的場景感知能力。 解決了什么問題: 已存在的跟蹤器只依靠外觀來跟蹤,沒有利用任何周圍場景中

    2024年04月23日
    瀏覽(23)
  • 【論文閱讀】Scaling Laws for Neural Language Models

    【論文閱讀】Scaling Laws for Neural Language Models

    本文簡要介紹 Scaling law 的主要結(jié)論 原文地址:Scaling Laws for Neural Language Models 個人認(rèn)為不需要特別關(guān)注公式內(nèi)各種符號的具體數(shù)值,而更應(yīng)該關(guān)注不同因素之間的關(guān)系,比例等 Performance depends strongly on scale, weakly on model shape scale: 參數(shù)量 N N N , 數(shù)據(jù)量 D D D , 計算量 C C C shape: 模

    2024年02月16日
    瀏覽(30)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包