国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

3d重建+神經(jīng)渲染

這篇具有很好參考價值的文章主要介紹了3d重建+神經(jīng)渲染。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

3d重建

  • 基于深度相機(結(jié)構(gòu)光、TOF、雙目攝像頭)的三維重建
  • 基于圖像的三維重建:深度學(xué)習(xí)
  • 基于視覺幾何的傳統(tǒng)三維重建:這種三維重建方法研究時間比較久遠(yuǎn),技術(shù)相對成熟。主要通過多視角圖像對采集數(shù)據(jù)的相機位置進(jìn)行估計,再通過圖像提取特征后進(jìn)行比對拼接完成二維圖像到三維模型的轉(zhuǎn)換,就像利用立體幾何中的三視圖還原立體圖一樣。

3D形狀表示方法(shape representation)

  • 深度圖(depth map):2D圖片,每個像素都記錄了從視點(viewpoint)到遮擋物表面(遮擋物就是陰影生成物體)的距離,被遮擋的部分無法表示,僅能表示物體相對于視點平面的垂直深度
  • 點云(point cloud):某個坐標(biāo)系下的點的數(shù)據(jù)集。點包含了豐富的信息,包括三維坐標(biāo)X,Y,Z、顏色、分類值、強度值、時間等等。在我看來點云可以將現(xiàn)實世界原子化,通過高精度的點云數(shù)據(jù)可以還原現(xiàn)實世界??赏ㄟ^三維激光掃描獲取。
  • 體素(voxel):3D空間中具有一定體積的點,相當(dāng)于3D空間中的像素。體素本身不含有位置信息,只談?wù)撆c其他體素的相對距離
  • 網(wǎng)格(mesh):表示多面體形狀的頂點與多邊形的集合,它也叫作非結(jié)構(gòu)網(wǎng)格
深度圖(depth map) 點云(point cloud) 體素(voxel) 網(wǎng)格(mesh)

3d重建+神經(jīng)渲染

3d重建+神經(jīng)渲染

3d重建+神經(jīng)渲染

3d重建+神經(jīng)渲染

3d重建算法

  • Truncated Signed Distance Function (截斷符號距離函數(shù)):實時3D重建經(jīng)典算法。TSDF是SDF的改進(jìn),將取值限制在[-1,1]之間,同時僅在物體表面的限定的距離范圍內(nèi)進(jìn)行計算,降低了計算量。原理:用一個大的空間包圍盒(volume)去包括進(jìn)去待3D構(gòu)建的場景,volume分成多個voxel(小立體方塊)
  • SIFT (Scale Invariant Feature Transform)
  • ANN Feature Matching (近似最鄰近特征匹配)
  • SfT(Shape from Template):需要預(yù)先得到目標(biāo)物體在剛性狀態(tài)下的三維模型來作為模板,后面模型去追蹤單目視頻里目標(biāo)物體的變化,得到每一幀圖像對應(yīng)的形變?nèi)S模型。這種方法具有實時重建的可能
  • Eight Point Algorithm (八點算法):用八個點點對應(yīng)關(guān)系計算核線幾何(f-matrix)兩個Projective Camera之間的點點對應(yīng)關(guān)系是需要滿足核線幾何的,就像三點可以確定一個平面一樣,8對匹配可以確定兩個相機的核線幾何

3d重建流程

3d重建+神經(jīng)渲染

  1. ->輸入無序圖像 Unstructured Images
  2. ->圖像對齊(Assoc.),篩選圖像,構(gòu)建場景圖(也稱為連接圖)。
  3. ->稀疏重建(Structure from Motion,SFM),生成稀疏的3D點云結(jié)構(gòu),該步驟的貢獻(xiàn)是建立統(tǒng)一的坐標(biāo)系,確定了重建物體的尺寸,提供可靠的2D-3D多對一的匹配點對。
  4. ->稠密重建(Multiple View Stereo,MVS),生成稠密的3D點云結(jié)構(gòu),該步驟的貢獻(xiàn)生成稠密的點云。
  5. ->表面重建(Mesh,Model Fitting),稠密點云轉(zhuǎn)化為網(wǎng)格(mesh)。
  6. ->紋理重建(Texture Mapping) ,紋理貼圖,即對網(wǎng)格進(jìn)行紋理坐標(biāo)映射,進(jìn)行貼紋理。
  7. ->可視化渲染

基于深度學(xué)習(xí)的3d重建算法:

  • 基于單張RGB圖像的三維重建
  • 基于多視圖的三維重建
  • 基于點云數(shù)據(jù)的三維重建

MVSNet(2018):Depth Inference for Unstructured Multi-view Stereo?稠密重建

第一個基于深度學(xué)習(xí)的MVS重建架構(gòu)。提出一種端到端的多視圖重建深度學(xué)習(xí)架構(gòu),參考基于2張圖片的代價體的雙目立體匹配深度估計方法,擴展到多張圖片中進(jìn)行深度估計。MVSNet的核心不是直接把3D模型建出來,而是端到端的學(xué)習(xí)深度圖,它的目標(biāo)是預(yù)測圖片上每個像素的深度信息。在該架構(gòu)中,首先提取深層的視覺圖像特征,然后通過可微分的單應(yīng)變換,基于參考視圖的相機視錐體構(gòu)建3D代價體。然后使用3D卷積對初始深度圖進(jìn)行正則化和回歸得到初始的深度圖,初始的深度圖通過參考圖像改進(jìn)得到最后的深度圖

LoFTR: Detector-Free Local Feature Matching with Transformers

一種新的局部圖像特征匹配方法。首先在粗粒度上建立圖像特征的檢測、描述和匹配,然后在精粒度別上細(xì)化亞像素級別的密集匹配,而不是依次執(zhí)行圖像特征檢測、描述和匹配。與使用cost volume來搜索對應(yīng)關(guān)系的密集方法相比,本文借鑒Transformer使用了自注意層和互注意層來獲得兩幅圖像的特征描述符。這種方法提供的全局接受域使得能夠在紋理較少的區(qū)域產(chǎn)生密集匹配

渲染方式

  • 容積圖渲染(Volume Rendering):該技術(shù)主要應(yīng)用于醫(yī)學(xué)圖像的可視化。它利用三維空間中的體素進(jìn)行渲染和加權(quán),通過調(diào)整灰度和透明度來顯示內(nèi)部結(jié)構(gòu)。
  • 表面渲染(Surface Rendering):該技術(shù)利用三維建模工具構(gòu)建表面模型,并使用光照等效果對表面進(jìn)行渲染。表面渲染技術(shù)可以生成真實的渲染效果,但需要許多處理步驟,比較繁瑣
  • 可微分渲染(differentiable rendering)
  • 神經(jīng)渲染(Neural rendering):基于深度生成模型和圖形學(xué)領(lǐng)域的光學(xué)物理知識

神經(jīng)輻射場(NeRF)使用多層感知器(MLP)來近似3D場景的輻射場和密度場。該學(xué)習(xí)的體表示可以使用解析可微分渲染(即體積分)從任何虛擬攝像頭渲染。對于訓(xùn)練,假設(shè)從多個攝像機視點觀測場景。從這些訓(xùn)練視點,渲染估計的3D場景,并最小化渲染圖像和觀察圖像之間的差異,根據(jù)這些觀察結(jié)果訓(xùn)練網(wǎng)絡(luò)。一旦訓(xùn)練完成,由神經(jīng)網(wǎng)絡(luò)近似的3D場景可以從新的視點進(jìn)行渲染,從而實現(xiàn)可控合成。與使用神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)渲染函數(shù)的方法相反,NeRF在該方法中更明確地使用了計算機圖形學(xué)的知識,由于(物理)歸納偏差,能夠更好地概括新視圖:場景密度和半徑的中間3D結(jié)構(gòu)化表示。因此,NeRF在3D空間中學(xué)習(xí)物理上有意義的顏色和密度值,物理激發(fā)的光線投射和體集成可以持續(xù)渲染到新視圖中。文章來源地址http://www.zghlxwxcb.cn/news/detail-495785.html

開源框架

  • OpenMVG:?https://github.com/openMVG/openMVG
  • Colmap:?https://github.com/colmap/colmap
  • OpenSfM:https://github.com/mapillary/OpenSfM
  • OpenMVS:https://github.com/cdcseacave/openMVS

到了這里,關(guān)于3d重建+神經(jīng)渲染的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 3D深度相機---結(jié)構(gòu)光

    3D深度相機---結(jié)構(gòu)光

    去年的儀器儀表的課有匯報,我還專門為3D深度像機做了個調(diào)研,一直用inter realsense的,最近老師讓看結(jié)構(gòu)光方案的,正好總結(jié)一下。 由于基于雙目立體視覺的深度相機對環(huán)境光照強度比較敏感,且比較依賴圖像本身的特征,因此在光照不足、缺乏紋理等情況下很難提取到有

    2024年02月02日
    瀏覽(20)
  • OpenCV+相機校準(zhǔn)和3D重建

    相機校準(zhǔn)至少需要10個測試圖案,所需的重要輸入數(shù)據(jù)是3D現(xiàn)實世界點集以及圖像中這些點的相應(yīng)2D坐標(biāo)。3D點稱為對象點,而2D圖像點稱為圖像點。 除了棋盤,我們還可以使用圓形網(wǎng)格。 在這種情況下,我們必須使用函數(shù)cv.findCirclesGrid()來找到模式。 較少的圖像足以使用圓形

    2024年02月05日
    瀏覽(17)
  • 計算機視覺與圖形學(xué)-神經(jīng)渲染專題-Seal-3D(基于NeRF的像素級交互式編輯)

    計算機視覺與圖形學(xué)-神經(jīng)渲染專題-Seal-3D(基于NeRF的像素級交互式編輯)

    摘要 隨著隱式神經(jīng)表示或神經(jīng)輻射場 (NeRF) 的流行,迫切需要與隱式 3D 模型交互的編輯方法,以完成后處理重建場景和 3D 內(nèi)容創(chuàng)建等任務(wù)。雖然之前的作品從不同角度探索了 NeRF 編輯,但它們在編輯靈活性、質(zhì)量和速度方面受到限制,無法提供直接的編輯響應(yīng)和即時預(yù)覽。

    2024年02月13日
    瀏覽(21)
  • 文獻(xiàn)閱讀筆記系列一:事件相機3D重建的方法探究

    文獻(xiàn)閱讀筆記系列一:事件相機3D重建的方法探究

    一.問題的描述 1.1 事件相機 事件相機是一種仿生傳感器,與傳統(tǒng)相機不同,它異步測量每像素的亮度變化,并輸出編碼這些變化的時間、位置和符號的事件流[1]。事件相機具有高時間分辨率、高動態(tài)范圍、低功耗和高像素帶寬等特性,使其在機器人和計算機視覺領(lǐng)域具有巨大

    2024年01月17日
    瀏覽(27)
  • 基于深度神經(jīng)網(wǎng)絡(luò)的3D模型合成【Transformer vs. CNN】

    基于深度神經(jīng)網(wǎng)絡(luò)的3D模型合成【Transformer vs. CNN】

    本文介紹用于3D模型合成的transformer網(wǎng)絡(luò)與深度卷積網(wǎng)絡(luò)。 推薦:使用 NSDT場景設(shè)計器 快速搭建 3D場景。 從單一視角合成 3D 數(shù)據(jù)是一種基本的人類視覺功能,這對計算機視覺算法來說極具挑戰(zhàn)性,這是一個共識。 但在 3D 傳感器(如 LiDAR、RGB-D 相機(RealSense、Kinect)和 3D 掃描

    2024年02月07日
    瀏覽(18)
  • COLMAP簡明教程 重建 轉(zhuǎn)化深度圖 導(dǎo)出相機參數(shù) 導(dǎo)入相機參數(shù) 命令行

    COLMAP是經(jīng)典的3D重建、SfM、深度估計開源工作,配置和安裝按下不表,本文主要從命令行的角度,對COLMAP的基本用法做教程,并備收藏和筆記。 準(zhǔn)備好一些多視角圖像,放入一個文件夾中,如下所示: 如果圖像是針孔相機拍攝的,就在根目錄下執(zhí)行以下命令: 這些命令分別

    2024年02月10日
    瀏覽(109)
  • 線結(jié)構(gòu)光三維重建(二)相機標(biāo)定、光平面標(biāo)定

    線結(jié)構(gòu)光三維重建(二)相機標(biāo)定、光平面標(biāo)定

    線結(jié)構(gòu)光三維重建(一) https://blog.csdn.net/beyond951/article/details/125771158 ??????? ? ????????上文主要對線激光的三角測量原理、光平面的標(biāo)定方法和激光條紋提取的方法進(jìn)行了一個簡單的介紹,本文則主要針對線激光三維重建系統(tǒng)的系統(tǒng)參數(shù)標(biāo)定進(jìn)行闡述,同時對采集到

    2024年02月09日
    瀏覽(53)
  • 【計算機視覺|人臉建?!可疃葘W(xué)習(xí)時代的3D人臉重建調(diào)查報告

    【計算機視覺|人臉建模】深度學(xué)習(xí)時代的3D人臉重建調(diào)查報告

    本系列博文為深度學(xué)習(xí)/計算機視覺論文筆記,轉(zhuǎn)載請注明出處 標(biāo)題: 3D Face Reconstruction in Deep Learning Era: A Survey 鏈接:3D Face Reconstruction in Deep Learning Era: A Survey - PubMed (nih.gov) 隨著深度學(xué)習(xí)的出現(xiàn)和圖形處理單元的廣泛應(yīng)用,3D人臉重建已成為生物特征識別最引人入勝的主題。

    2024年02月14日
    瀏覽(33)
  • 深度學(xué)習(xí) 從2D圖像中重建3D人臉:使用3DDFA或PRNet模型

    在計算機視覺和圖形學(xué)領(lǐng)域,從2D圖像中重建3D人臉是一個具有挑戰(zhàn)性的任務(wù)。在本文中,我們將介紹如何使用3DDFA和PRNet模型從2D人臉圖像中重建3D人臉。我們將詳細(xì)介紹每個模型的工作原理,并提供Python代碼示例以幫助您快速入門。 3DDFA(Three-Dimensional Dense Face Alignment)是一

    2024年02月06日
    瀏覽(16)
  • 深度相機(3D相機)

    深度相機(3D相機)

    傳統(tǒng)的RGB彩色相機稱為2D相機, 只能得到2D的圖像信息, 無法得到物體與相機的距離信息,也就是深度信息。 顧名思義, 深度相機除了獲取2D信息,還能得到深度信息,也叫RGBD相機, 或3D相機。 順便提一句, 當(dāng)前也有很多工作基于2D相機, 通過算法的方式估計深度, 但一

    2024年04月27日
    瀏覽(10)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包