国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

計算機(jī)視覺與圖形學(xué)-神經(jīng)渲染專題-Seal-3D(基于NeRF的像素級交互式編輯)

這篇具有很好參考價值的文章主要介紹了計算機(jī)視覺與圖形學(xué)-神經(jīng)渲染專題-Seal-3D(基于NeRF的像素級交互式編輯)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報違法"按鈕提交疑問。

摘要

隨著隱式神經(jīng)表示或神經(jīng)輻射場 (NeRF) 的流行,迫切需要與隱式 3D 模型交互的編輯方法,以完成后處理重建場景和 3D 內(nèi)容創(chuàng)建等任務(wù)。雖然之前的作品從不同角度探索了 NeRF 編輯,但它們在編輯靈活性、質(zhì)量和速度方面受到限制,無法提供直接的編輯響應(yīng)和即時預(yù)覽。關(guān)鍵的挑戰(zhàn)是構(gòu)思一種本地可編輯的神經(jīng)表示,它可以直接反映編輯指令并立即更新。為了彌補(bǔ)這一差距,我們提出了一種新的隱式表示交互式編輯方法和系統(tǒng),稱為 Seal-3D,它允許用戶以像素級和自由的方式編輯 NeRF 模型,并具有廣泛的類 NeRF 主干網(wǎng),并預(yù)覽 立即編輯效果。為了實(shí)現(xiàn)這些效果,我們提出的代理函數(shù)將編輯指令映射到 NeRF 模型的原始空間,以及具有局部預(yù)訓(xùn)練和全局微調(diào)的student-teacher訓(xùn)練策略來解決這些挑戰(zhàn)。NeRF 編輯系統(tǒng)旨在展示各種編輯類型。我們的系統(tǒng)可以以約1秒的交互速度實(shí)現(xiàn)引人注目的編輯效果。

工程鏈接:https://windingwind.github.io/seal-3d/

框架

左圖:用戶編輯后目標(biāo)空間的 3D 點(diǎn)和視圖方向映射到原始源空間,以從教師模型獲取指導(dǎo) ct、σt 以進(jìn)行學(xué)生訓(xùn)練。右圖:學(xué)生訓(xùn)練由兩個階段組成:快速預(yù)訓(xùn)練,通過局部損失更新網(wǎng)絡(luò)的部分參數(shù)來提供即時預(yù)覽,以及全局損失的微調(diào)。

計算機(jī)視覺與圖形學(xué)-神經(jīng)渲染專題-Seal-3D(基于NeRF的像素級交互式編輯),計算機(jī)視覺,3d,人工智能

實(shí)驗(yàn)結(jié)果

第一個交互式像素級 NeRF 編輯工具。我們設(shè)計了一種交互式用戶編輯方法和系統(tǒng) Seal-3D,通過我們新穎的預(yù)訓(xùn)練策略實(shí)現(xiàn)了即時(約 1 秒)預(yù)覽(左)。通過短時間(1~2分鐘)的微調(diào),可以進(jìn)一步獲得高質(zhì)量的編輯結(jié)果。我們實(shí)施編輯的編輯結(jié)果工具(右)與原始表面(左)上豐富的陰影細(xì)節(jié)(例如陰影)在視圖上保持一致。

計算機(jī)視覺與圖形學(xué)-神經(jīng)渲染專題-Seal-3D(基于NeRF的像素級交互式編輯),計算機(jī)視覺,3d,人工智能

3D內(nèi)容編輯

計算機(jī)視覺與圖形學(xué)-神經(jīng)渲染專題-Seal-3D(基于NeRF的像素級交互式編輯),計算機(jī)視覺,3d,人工智能

結(jié)論

我們引入了一個用于神經(jīng)輻射場像素級編輯的交互式框架,支持即時預(yù)覽。具體來說,我們利用student-teacher蒸餾方法提供編輯指導(dǎo),并設(shè)計兩階段訓(xùn)練策略來實(shí)現(xiàn)網(wǎng)絡(luò)即時收斂,以獲得粗略結(jié)果作為預(yù)覽。與以前的工作不同,我們的方法不需要任何顯式代理(例如網(wǎng)格),從而提高了交互性和用戶友好性。我們的方法還支持在編輯的表面上保留著色效果。一個限制是我們的方法不支持復(fù)雜的依賴于視圖的照明效果,例如鏡面反射,并且不能改變場景照明,這可以通過引入內(nèi)在合成來改進(jìn)。此外,我們的方法不處理原始 NeRF 網(wǎng)絡(luò)的重建失敗(例如浮動偽影)。文章來源地址http://www.zghlxwxcb.cn/news/detail-635225.html

到了這里,關(guān)于計算機(jī)視覺與圖形學(xué)-神經(jīng)渲染專題-Seal-3D(基于NeRF的像素級交互式編輯)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 計算機(jī)視覺: 神經(jīng)網(wǎng)絡(luò)的視覺世界

    計算機(jī)視覺是人工智能領(lǐng)域的一個重要分支,它涉及到計算機(jī)如何理解和處理圖像和視頻。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,神經(jīng)網(wǎng)絡(luò)已經(jīng)成為計算機(jī)視覺的主要工具。在這篇文章中,我們將討論計算機(jī)視覺的基本概念、核心算法和應(yīng)用。 計算機(jī)視覺的主要任務(wù)包括圖像分類、目標(biāo)

    2024年02月21日
    瀏覽(28)
  • 計算機(jī)視覺-卷積神經(jīng)網(wǎng)絡(luò)

    計算機(jī)視覺-卷積神經(jīng)網(wǎng)絡(luò)

    目錄 計算機(jī)視覺的發(fā)展歷程 卷積神經(jīng)網(wǎng)絡(luò) 卷積(Convolution) 卷積計算 感受野(Receptive Field) 步幅(stride) 感受野(Receptive Field) 多輸入通道、多輸出通道和批量操作 卷積算子應(yīng)用舉例 計算機(jī)視覺作為一門讓機(jī)器學(xué)會如何去“看”的學(xué)科,具體的說,就是讓機(jī)器去識別攝

    2024年02月10日
    瀏覽(27)
  • 7.卷積神經(jīng)網(wǎng)絡(luò)與計算機(jī)視覺

    7.卷積神經(jīng)網(wǎng)絡(luò)與計算機(jī)視覺

    計算機(jī)視覺是一門研究如何使計算機(jī)識別圖片的學(xué)科,也是深度學(xué)習(xí)的主要應(yīng)用領(lǐng)域之一。 在眾多深度模型中,卷積神經(jīng)網(wǎng)絡(luò)“獨(dú)領(lǐng)風(fēng)騷”,已經(jīng)被稱為計算機(jī)視覺的主要研究根據(jù)之一。 卷積神經(jīng)網(wǎng)絡(luò)最初由 Yann LeCun(楊立昆)等人在1989年提出,是最初取得成功的深度神經(jīng)

    2024年04月10日
    瀏覽(23)
  • 計算機(jī)視覺 圖像形成 幾何圖形和變換 3D到2D投影

    ????????現(xiàn)在我們知道如何表示2D和3D幾何圖元以及如何在空間上轉(zhuǎn)換它們,我們需要指定如何將 3D圖元投影到圖像平面上。 我們可以使用線性3D到2D投影矩陣來做到這一點(diǎn)。最簡單的模型是正交法,它不需要除法就可以得到最終的(不均勻的)結(jié)果。更常用的模型是透視,

    2023年04月08日
    瀏覽(100)
  • 計算機(jī)視覺:深層卷積神經(jīng)網(wǎng)絡(luò)的構(gòu)建

    計算機(jī)視覺:深層卷積神經(jīng)網(wǎng)絡(luò)的構(gòu)建

    上一節(jié)課程中我們學(xué)習(xí)了單卷積層的前向傳播,本次課程我們構(gòu)建一個具有三個卷積層的卷積神經(jīng)網(wǎng)絡(luò),然后從輸入(39*39*3)開始進(jìn)行三次卷積操作,我們來看一下每次卷積的輸入和輸出維度的變化。 第一層使用3*3*3的過濾器來提取特征,那么f[1]=3,然后步長s[1]=1,填充p[1]

    2024年02月10日
    瀏覽(31)
  • 【計算機(jī)視覺】萬字長文詳解:卷積神經(jīng)網(wǎng)絡(luò)

    【計算機(jī)視覺】萬字長文詳解:卷積神經(jīng)網(wǎng)絡(luò)

    以下部分文字資料整合于網(wǎng)絡(luò),本文僅供自己學(xué)習(xí)用! 如果輸入層和隱藏層和之前一樣都是采用全連接網(wǎng)絡(luò),參數(shù)過多會導(dǎo)致 過擬合 問題,其次這么多的參數(shù)存儲下來對計算機(jī)的內(nèi)存要求也是很高的 解決這一問題,就需要用到——卷積神經(jīng)網(wǎng)絡(luò) 這是一種理解卷積的角度(

    2024年02月19日
    瀏覽(40)
  • 【深度學(xué)習(xí)】計算機(jī)視覺(五)——卷積神經(jīng)網(wǎng)絡(luò)詳解

    【深度學(xué)習(xí)】計算機(jī)視覺(五)——卷積神經(jīng)網(wǎng)絡(luò)詳解

    卷積神經(jīng)網(wǎng)絡(luò)(CNN) 卷積神經(jīng)網(wǎng)絡(luò)基本上應(yīng)用于圖像數(shù)據(jù)。假設(shè)我們有一個輸入的大?。?8 * 28 * 3),如果我們使用正常的神經(jīng)網(wǎng)絡(luò),將有2352(28 * 28 * 3)參數(shù)。并且隨著圖像的大小增加參數(shù)的數(shù)量變得非常大。我們“卷積”圖像以減少參數(shù)數(shù)量。 CNN的輸入和輸出沒什么特別

    2024年02月06日
    瀏覽(34)
  • 神經(jīng)網(wǎng)絡(luò)在計算機(jī)視覺中的主要技術(shù)

    計算機(jī)視覺是一種通過計算機(jī)程序?qū)D像進(jìn)行處理和分析的技術(shù)。在過去幾十年中,計算機(jī)視覺技術(shù)發(fā)展迅速,成為了一種重要的技術(shù)手段,應(yīng)用于各個領(lǐng)域。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,神經(jīng)網(wǎng)絡(luò)在計算機(jī)視覺領(lǐng)域的應(yīng)用也越來越廣泛。本文將從以下幾個方面進(jìn)行闡述: 背景

    2024年02月21日
    瀏覽(22)
  • 再見卷積神經(jīng)網(wǎng)絡(luò),使用 Transformers 創(chuàng)建計算機(jī)視覺模型

    再見卷積神經(jīng)網(wǎng)絡(luò),使用 Transformers 創(chuàng)建計算機(jī)視覺模型

    本文旨在介紹 / 更新 Transformers 背后的主要思想,并介紹在計算機(jī)視覺應(yīng)用中使用這些模型的最新進(jìn)展。 讀完這篇文章,你會知道…… 為什么 Transformers 在 NLP 任務(wù)中的表現(xiàn)優(yōu)于 SOTA 模型。 Transformer 模型的工作原理 這是卷積模型的主要限制。 Transformers 如何克服卷積模型的限

    2024年02月02日
    瀏覽(31)
  • 計算機(jī)視覺(四)神經(jīng)網(wǎng)絡(luò)與典型的機(jī)器學(xué)習(xí)步驟

    計算機(jī)視覺(四)神經(jīng)網(wǎng)絡(luò)與典型的機(jī)器學(xué)習(xí)步驟

    神經(jīng)網(wǎng)絡(luò):大量神經(jīng)元節(jié)點(diǎn)按一定體系架構(gòu)連接成的網(wǎng)狀結(jié)構(gòu)——大腦結(jié)構(gòu) 神經(jīng)網(wǎng)絡(luò)的作用 - 分類 - 模式識別 - 連續(xù)值預(yù)測 建立輸入與輸出的映射關(guān)系 每個神經(jīng)元都是一個結(jié)構(gòu)相似的獨(dú)立單位,接受前一層傳來的數(shù)據(jù),并將這些數(shù)據(jù)的加權(quán)和輸入非線性作用函數(shù)中,最后將

    2024年02月15日
    瀏覽(34)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包