国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

[配環(huán)境]GET3D: A Generative Model of High Quality 3D Textured Shapes Learned from Images (docker方法)

這篇具有很好參考價值的文章主要介紹了[配環(huán)境]GET3D: A Generative Model of High Quality 3D Textured Shapes Learned from Images (docker方法)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

代碼地址:https://github.com/nv-tlabs/GET3D
本文使用了官方提供的docker鏡像。

配置docker

新建docker容器

  • 克隆項目

    git clone git@github.com:nv-tlabs/GET3D.git
    git clone https://github.com/nv-tlabs/GET3D.git
    
  • Build Docker image

    cd docker
    chmod +x make_image.sh
    ./make_image.sh get3d:v1
    

    過程如下:
    [配環(huán)境]GET3D: A Generative Model of High Quality 3D Textured Shapes Learned from Images (docker方法)

  • Start an interactive docker container:

    docker run --gpus device=all -it --rm -v YOUR_LOCAL_FOLDER:MOUNT_FOLDER -it get3d:v1 bash
    

    個人修改如下:

docker run --privileged --gpus device=all --shm-size 125G -p XXXX:6006 -p XXXX:22 -it -d -v /home/yuqiao/docker_home:/home/yuqiao -w /home/yuqiao --name get3d get3d:v1 bash

需要有的是:

--previledged
--gpus all
--shm-size 125G
-v /home/yuqiao/docker_home:/home/yuqiao
-p XXXX:6006 -p XXXX:22
-w /home/yuqiao
--name NAMe
docker_image_name:v1 bash

安裝并配置ssh(可選)

個人習慣用ssh直接連docker,如果沒有這個需求可以跳過這一步。

passwd # 設(shè)置密碼,用于ssh登錄
apt-get install openssh-server # 安裝ssh

配置ssh協(xié)議,允許密碼登錄root,允許X11轉(zhuǎn)發(fā):

vim /etc/ssh/sshd_config

修改里面的如下內(nèi)容:

PermitRootLogin yes #允許root用戶登錄
PasswordAuthentication yes # 允許用密碼登錄
X11Forwarding yes # 允許X11轉(zhuǎn)發(fā)
X11UseLocalhost no # 不要讓它走localhost,可能導(dǎo)致轉(zhuǎn)發(fā)失?。ㄓH測沒有這句不行)
#AddressFamily inet # 使用Ipv4,有的地方可能ipv6不行


修改好后,要重啟ssh才能生效

/etc/init.d/ssh restart
service ssh restart

(可選)配置conda軟鏈接

安裝tmux

https://stackoverflow.com/questions/36594420/how-can-i-turn-off-scrolling-the-history-in-iterm2

(可選)配置python默認使用上面這個python3

先試運行一下

python

如果提示:

-bash: python: command not found

則需要這個步驟。如果沒有提示就不用了。我是第一次配置的時候有這個提示;第二次就沒有了。

首次配置的時候,發(fā)現(xiàn)這個docker里面的python路徑如下:
/usr/bin/python3。
然而后面想換docker容器和宿主機綁定的端口號,重新配置的時候,發(fā)現(xiàn)又沒有這個路徑了。(又來一次好像又有了,而且也有conda,不需要配了)

vim ~/.bash_profile # 打開是空的,在里面增加這句話:

alias python=“/usr/bin/python3”
[配環(huán)境]GET3D: A Generative Model of High Quality 3D Textured Shapes Learned from Images (docker方法)

然后

source ~/.bash_profile #重新加載這個配置文件
python --version

安裝需要的東西

(可選)如果沒有pip 和conda

如果遇到conda: command not found (我只有首次配置的時候出現(xiàn)了這個問題,之后重新新建docker容器的時候就沒有了了)
可以看看/opt路徑下有沒有conda文件夾,有的話就:
vim ~/.bashrc # 打開這個文本文件

export PATH=$PATH:/opt/conda/bin # 按i進入編輯模式,在最后添加這句話;然后按Esc退出編輯模式,:wq!保存并退出

source ~/.bashrc # 激活這個文本文件。

實在沒有的話可以這樣安裝一下:
首次配置時似乎 沒有pip和conda,先安裝pip,我這里就先不用conda了,(再來一次發(fā)現(xiàn)有conda和pip,不知道為啥) :

sudo apt-get install python-pip #python2
sudo apt-get install python3-pip #python3sudo easy_install pip

安裝python包

官方提供了install_get3d.sh可以直接運行,但是更推薦打開它一行一行運行。免得中途報錯不知道啥情況。以下是我首次配置直接運行的情況。

bash install_get3d.sh

其中前兩行conda命令報錯說沒有conda,后面正常運行。
torch那行報了一個錯說沒有匹配的版本,
[配環(huán)境]GET3D: A Generative Model of High Quality 3D Textured Shapes Learned from Images (docker方法)

但全運行完之后,單獨把這一行拿出來跑,又可以了:
[配環(huán)境]GET3D: A Generative Model of High Quality 3D Textured Shapes Learned from Images (docker方法)

運行inference代碼

首先把readme部分的inference代碼中,預(yù)訓(xùn)練模型的路徑改一下。原來給的路徑是:

/content/GET3D/get3d_release/shapenet_car.pt

現(xiàn)在我們把下載的pt文件放在某地,對應(yīng)修改路徑,比如我放在了:
./pretrained_model/shapenet_car.pt
(親測需要打開頭那個點,不然找不到)
于是就變成:

python train_3d.py --outdir=save_inference_results/shapenet_car  --gpus=1 --batch=4 --gamma=40 --data_camera_mode shapenet_car  --dmtet_scale 1.0  --use_shapenet_split 1  --one_3d_generator 1  --fp32 0 --inference_vis 1 --resume_pretrain ./pretrained_model/shapenet_car.pt --inference_to_generate_textured_mesh 1

如果需要指定gpu的話,可以在train3d.py里面修改:
在import os下面加上
os.environ[“CUDA_VISIBLE_DEVICES”] = ‘0’

可能的numpy報錯:
[配環(huán)境]GET3D: A Generative Model of High Quality 3D Textured Shapes Learned from Images (docker方法)
可以重裝低于1.20的numpy試試,我這里還是修改代碼了:
在/training/inference_utils.py", line 256, in save_textured_mesh_for_inference
mask = np.sum(img.astype(np.float), axis=-1, keepdims=True)
把np.float 改為 float。
改文件中還有幾個np.float,全都改一下。

然后控制臺停在這里,此時在save-inference_results中就會生成一些東西了。不需要完整跑完的話直接停下就行。
[配環(huán)境]GET3D: A Generative Model of High Quality 3D Textured Shapes Learned from Images (docker方法)

結(jié)果:

用meshlab查看

[配環(huán)境]GET3D: A Generative Model of High Quality 3D Textured Shapes Learned from Images (docker方法)
[配環(huán)境]GET3D: A Generative Model of High Quality 3D Textured Shapes Learned from Images (docker方法)

不顯示紋理是這樣的:
[配環(huán)境]GET3D: A Generative Model of High Quality 3D Textured Shapes Learned from Images (docker方法)
[配環(huán)境]GET3D: A Generative Model of High Quality 3D Textured Shapes Learned from Images (docker方法)
[配環(huán)境]GET3D: A Generative Model of High Quality 3D Textured Shapes Learned from Images (docker方法)

這是一張紋理貼圖示例:
[配環(huán)境]GET3D: A Generative Model of High Quality 3D Textured Shapes Learned from Images (docker方法)

這是放大看的網(wǎng)格:
[配環(huán)境]GET3D: A Generative Model of High Quality 3D Textured Shapes Learned from Images (docker方法)

用blender查看

官方論文中是用blender作為渲染器的,那我們也用上看看會不會好一點。
這里用car的0000019作為例子。

在blender中,file,export,選中對應(yīng)的obj文件。然后點右上角這個小地球來顯示紋理:
[配環(huán)境]GET3D: A Generative Model of High Quality 3D Textured Shapes Learned from Images (docker方法)

[配環(huán)境]GET3D: A Generative Model of High Quality 3D Textured Shapes Learned from Images (docker方法)

這樣看著確實好一些:(把側(cè)面轉(zhuǎn)到對著光線)
[配環(huán)境]GET3D: A Generative Model of High Quality 3D Textured Shapes Learned from Images (docker方法)
不像blender會顯示一些奇怪的線:
[配環(huán)境]GET3D: A Generative Model of High Quality 3D Textured Shapes Learned from Images (docker方法)

training 代碼運行

Ninja is required to load C++ extensions in Pycharm

直接在服務(wù)器上可以運行,如果用pycharm 的ssh連接就會報錯:
Ninja is required to load C++ extensions in Pycharm
參考這一篇:
https://blog.csdn.net/qq_36721800/article/details/123602884
[配環(huán)境]GET3D: A Generative Model of High Quality 3D Textured Shapes Learned from Images (docker方法)

數(shù)據(jù)集生成

太長不看:使用shapenet1的話,直接按官方說明一步步操作即可。我這里用的sahpenet2,比shapenet1在每個shape id文件夾里面多了一個models文件夾,在相應(yīng)的位置修改即可

按照readme里面,下載blender,在blender中安裝numpy。
然后我的數(shù)據(jù)集是shapenetv2而不是v1,需要相應(yīng)的修改一下。
[配環(huán)境]GET3D: A Generative Model of High Quality 3D Textured Shapes Learned from Images (docker方法)
運行命令:
python render_all.py --save_folder …/data/rendered_img --dataset_folder …/data/shapenetv2 --blender_root /home/yuqiao/download/blender/blender-2.90.0-linux64/blender

會報錯,會很慢,但結(jié)果沒問題,會生成image和camera:
[配環(huán)境]GET3D: A Generative Model of High Quality 3D Textured Shapes Learned from Images (docker方法)

[配環(huán)境]GET3D: A Generative Model of High Quality 3D Textured Shapes Learned from Images (docker方法)
[配環(huán)境]GET3D: A Generative Model of High Quality 3D Textured Shapes Learned from Images (docker方法)

完成之后記得刪除tmp.out

tensorboard報錯

Skipping tfevents export: No module named ‘tensorboard’

我直接 pip install tensorboard 會報錯:
AttributeError: module ‘distutils’ has no attribute ‘version’

根據(jù)此文:
https://zhuanlan.zhihu.com/p/556704117?utm_id=0,
執(zhí)行了兩個命令就解決了:
pip uninstall setuptools
pip install setuptools==58.0.4

其中后面這一部報了一個錯是Error processing line 1 of …distutils-precedence.pth:

No module named ‘_distuils_hack’

但親測不用管。

log結(jié)構(gòu):

這個根目錄 log是命令行中指定的文件夾,每次運行都會給一個編號的文件夾,里面會有這些內(nèi)容。其中l(wèi)og.txt是print重定向的內(nèi)容,里面不包含打印的時間和腳本。
[配環(huán)境]GET3D: A Generative Model of High Quality 3D Textured Shapes Learned from Images (docker方法)

個人需要的其他內(nèi)容

File “/home/yuqiao/GET3D/vtk_basic.py”, line 6, in
import vtk
File “/opt/conda/envs/get3d/lib/python3.8/site-packages/vtk.py”, line 5, in
from vtkmodules.vtkWebCore import *
ImportError: libXrender.so.1: cannot open shared object file: No such file or directory
(get3d) root@b3ad6dd933bf:/home/yuqiao/GET3D#

https://blog.csdn.net/weixin_41596463/article/details/105711172文章來源地址http://www.zghlxwxcb.cn/news/detail-433034.html

到了這里,關(guān)于[配環(huán)境]GET3D: A Generative Model of High Quality 3D Textured Shapes Learned from Images (docker方法)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • Diffusion Model (擴散生成模型)的基本原理詳解(二)Score-Based Generative Modeling(SGM)

    本篇是《Diffusion Model (擴散生成模型)的基本原理詳解(一)Denoising Diffusion Probabilistic Models(DDPM)》的續(xù)寫,繼續(xù)介紹有關(guān)diffusion的另一個相關(guān)模型,同理,參考文獻和詳細內(nèi)容與上一篇相同,讀者可自行查閱,本篇著重介紹Score-Based Generative Modeling(SGM)的部分,本篇的理論部分參

    2024年02月09日
    瀏覽(22)
  • 論文閱讀:VITS2: Improving Quality and Efficiency of Single-Stage Text-to-Speech with Adversarial

    論文閱讀:VITS2: Improving Quality and Efficiency of Single-Stage Text-to-Speech with Adversarial

    論文標題是“ VITS2: Improving Quality and Efficiency of Single-Stage Text-to-Speech with Adversarial Learning and Architecture Design ”,寫不下了,是2023.7.31原vits團隊剛剛掛在arxiv上的文章,主要基于四個方面對vits做了改動,此篇文章我們就不講vits,主要分析vits2的部分。 單階段文本到語音模型最近

    2024年02月07日
    瀏覽(28)
  • 9. Bus network aspects of high speed CAN

    9. Bus network aspects of high speed CAN

    AH1014? Systems Applications, Automotive Innovation Center The number of nodes, which can be connected to a bus, depends on the minimum load resistance a transceiver can drive. NXPs 3rd generation high speed CAN transceivers provide an output drive capability down to a minimum load of RL,min = 45Ohm for VCC 4,5 V (4,75V for the TJA1048). The overall busload

    2023年04月26日
    瀏覽(18)
  • AIGC 綜述 2023:A History of Generative AI from GAN to ChatGPT

    AIGC 綜述 2023:A History of Generative AI from GAN to ChatGPT

    論文下載:A Comprehensive Survey of AI-Generated Content (AIGC): A History of Generative AI from GAN to ChatGPT ? 注解: [1,2021] 表示第1條參考文獻,發(fā)表時間為2021年 最近,ChatGPT,DALL-E-2[1,2021] 以及 Codex[2,2021]一起受到了社會的廣泛關(guān)注。因此,許多人已經(jīng)開始對相關(guān)的資源感興趣,并正在尋求揭

    2024年02月11日
    瀏覽(25)
  • Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D Shapes 論文筆記&環(huán)境配置

    Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D Shapes 論文筆記&環(huán)境配置

    發(fā)布于 CVPR 2021 論文介紹了一種具有神經(jīng)SDF的復(fù)雜幾何實時渲染方法。 論文提出了一種神經(jīng)SDF表示,可以有效地捕獲多個LOD,并以最先進的質(zhì)量重建3D幾何圖形。 論文中的架構(gòu)可以以比傳統(tǒng)方法具有更高視覺保真度的壓縮格式表示 3D 形狀,并且即使在單個學(xué)習示例中也能跨不

    2024年01月24日
    瀏覽(41)
  • GPT 大模型的應(yīng)用路線圖:可控性是最強路標 | The Roadmap of Generative AI

    GPT 大模型的應(yīng)用路線圖:可控性是最強路標 | The Roadmap of Generative AI

    ? ? 目錄 生成式AI的應(yīng)用路線圖:可控性是最強路標 | The Roadmap of Generative AI?

    2024年02月09日
    瀏覽(24)
  • 【讀點論文】A Survey on Generative Diffusion Model,AIGC時代的新寵兒,從原理推導(dǎo)到工程應(yīng)用,在視覺,自然語言,語音等領(lǐng)域大展拳腳

    【讀點論文】A Survey on Generative Diffusion Model,AIGC時代的新寵兒,從原理推導(dǎo)到工程應(yīng)用,在視覺,自然語言,語音等領(lǐng)域大展拳腳

    由于深度潛在表示,深度學(xué)習在生成任務(wù)中顯示出良好的潛力。 生成模型是一類可以根據(jù)某些隱含參數(shù)隨機生成觀測值的模型 。近年來,擴散模型以其強大的生成能力成為生成模型的一個新興類別。如今,已經(jīng)取得了巨大的成就。除了計算機視覺、語音生成、生物信息學(xué)和

    2024年02月09日
    瀏覽(36)
  • 論文閱讀:矩陣乘法GEMM的cache優(yōu)化,子矩陣的切分方法Anatomy of High-Performance MatrixMultiplication

    論文閱讀:矩陣乘法GEMM的cache優(yōu)化,子矩陣的切分方法Anatomy of High-Performance MatrixMultiplication

    矩陣乘法優(yōu)化的知名論文goto paper: 矩陣乘法的優(yōu)化需要將矩陣切分成子矩陣,用子矩陣相乘的結(jié)果組合為原矩陣相乘的結(jié)果: 上圖是拆分矩陣的方法,M表示矩陣,X方向和Y方向的兩個維度都是未知的。P表示橫條或豎條,X方向或Y方向有一個方向的維度是極小的。B表示block塊

    2024年02月16日
    瀏覽(24)
  • 85、Magic3D: High-Resolution Text-to-3D Content Creation

    85、Magic3D: High-Resolution Text-to-3D Content Creation

    主頁:https://research.nvidia.com/labs/dir/magic3d/ DreamFusion 實現(xiàn)了文本指導(dǎo)2D擴散模型生成3D場景,但是其有以下兩個缺點: 對NeRF的優(yōu)化極其緩慢; 對NeRF的圖像空間監(jiān)督分辨率低,導(dǎo)致3D模型質(zhì)量低,處理時間長 論文為此提出兩階段優(yōu)化框架 使用低分辨率擴散先驗和稀疏三維哈希網(wǎng)

    2024年02月11日
    瀏覽(58)
  • [CVPR‘22] EG3D: Efficient Geometry-aware 3D Generative Adversarial Networks

    [CVPR‘22] EG3D: Efficient Geometry-aware 3D Generative Adversarial Networks

    paper:?https://nvlabs.github.io/eg3d/media/eg3d.pdf project:?EG3D: Efficient Geometry-aware 3D GANs code:?GitHub - NVlabs/eg3d 總結(jié) : 本文提出一種hybrid explicit-implicit 3D representation: tri-plane hybrid 3D representation,該方法不僅有更強的表達能力,速度更快,內(nèi)存開銷更小。 同時,為解決多視角不一致問題,

    2023年04月27日
    瀏覽(28)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包