国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【文生圖系列】 Stable Diffusion v2復現(xiàn)教程

這篇具有很好參考價值的文章主要介紹了【文生圖系列】 Stable Diffusion v2復現(xiàn)教程。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

基礎環(huán)境承接Stable Diffusion v1, 詳情請見我的博文【文生圖系列】 Stable Diffusion v1復現(xiàn)教程。然后更新pytorch和torchvision的版本,因為要使用GPU和xformers,需要下載gpu版本的pytorch。再下載open-clip-torch庫文件,安裝命令如下所示:

conda install pytorch == 1.12.1 torchvision == 0.13.1 torchaudio0.12.1 cudatoolkit=11.3 -c pytorch
pip install open-clip-torch
2.7.0
pip install -e .

在pytorch官網上尋找下載命令,pytorch為1.12.1時,有cuda 10.2, 11.3 和11.6的版本,我選擇了cuda為11.3版本,那么對應的cudatoolkit=11.3,pytorch安裝命令如上所示。

xformers

xformers能夠有效地利用GPU,未安裝xformers,我的GPU內存為15多G,會出現(xiàn)CUDA out of memory的錯誤,利用xformer,運行scripts/txt2img.py時,GPU內存占用最高為13多G。

官方文檔中是cuda-11.4,由于我的pytorch的cuda是11.3,按照官方教程安裝xformers,會出現(xiàn)xFormers wasn’t build with CUDA support cuda錯誤。所以將cuda的版本更改為11.3。

export CUDA_HOME=/usr/local/cuda-11.3
conda install -c nvidia/label/cuda-11.3.0 cuda-nvcc
conda install -c conda-forge gcc
conda install -c conda-forge gxx_linux-64==9.5.0

下載并安裝xformers,在pip install -e .時,會耗費較長時間。

cd …
git clone https://github.com/facebookresearch/xformers.git
cd xformers
git submodule update --init --recursive
pip install -r requirements.txt
pip install -e .
cd …/stablediffusion

bug 記錄

  1. Torch not compiled with CUDA,需要下載帶有cuda版本的pytorch
  2. xFormers wasn’t build with CUDA support cuda版本不匹配,就如上述所述,將cuda版本由11.4更改為11.3,然后重新安裝xformers

txt2img

下載stable-diffusion-2-1 模型,下載鏈接如下所示。stable-diffusion-2-1 是在stable-diffusion-2模型上微調得到的。數(shù)據(jù)未變,設置punsafe=0.1額外訓練了55k步,然后調整punsafe=0.98后再額外訓練155k步。

v2-1_768-ema-pruned.ckpt下載: https://huggingface.co/stabilityai/stable-diffusion-2-1/resolve/main/v2-1_768-ema-pruned.ckpt

sd v2版本和sd v1版本的超參數(shù)幾乎一樣,這里不再贅述,具體見【文生圖系列】 Stable Diffusion v1復現(xiàn)教程。sd v2相比于v1支持更高分辨,能生成更高清的圖片。

python scripts/txt2img.py --prompt “a professional photograph of an astronaut riding a horse” --ckpt v2-1_768-ema-pruned.ckpt --config configs/stable-diffusion/v2-inference-v.yaml --H 768 --W 768 --device cuda

宇航員騎馬的生成圖片如下所示,相比于v1,生成的圖片更全面,也更有質感。馬生成的不錯,不夠露臉的宇航員有些恐怖。

【文生圖系列】 Stable Diffusion v2復現(xiàn)教程ps: 原圖近乎9M,CSDN最高上傳5M的圖片,將圖片進行了壓縮到了3M。

租賃的服務器,明天就要到期了。配置完環(huán)境之后,趁著最后的時間極速測試一下。下圖是生成的一張白發(fā)帥哥,超級帥氣,很像貝克漢姆。

python scripts/txt2img.py --prompt “a best-quality photo of an extremely handsome young man with white hair who is muscle” --ckpt v2-1_768-ema-pruned.ckpt --config configs/stable-diffusion/v2-inference-v.yaml --H 768 --W 768 --device cuda

【文生圖系列】 Stable Diffusion v2復現(xiàn)教程

python scripts/txt2img.py --prompt “a best-quality photo of a classical Chinese Tang Dynasty beauty who is drinking tea” --ckpt v2-1_768-ema-pruned.ckpt --config configs/stable-diffusion/v2-inference-v.yaml --H 768 --W 768 --device cuda

和sd v1相比,相同的提示詞,“唐朝美女喝茶的提示詞”,sd v2能把品茗這個動作畫出來,但是服飾不怎么像唐朝。

【文生圖系列】 Stable Diffusion v2復現(xiàn)教程
原圖近乎9M,CSDN最高上傳5M的圖片,將圖片進行了壓縮到了3M。

diffusers

使用diffusers庫能夠更簡單更有效率地運行sd 2。

Cannot initialize model with low cpu memory usage because accelerate was not found in the environment. Defaulting to low_cpu_mem_usage=False. It is strongly recommended to install accelerate for faster and less memory-intense model loading. You can do so with:

pip install accelerate safetensors

import torch
from diffusers import StableDiffusionPipeline, DPMSolverMultistepScheduler

model_id = "stabilityai/stable-diffusion-2-1"

# Use the DPMSolverMultistepScheduler (DPM-Solver++) scheduler here instead
pipe = StableDiffusionPipeline.from_pretrained(model_id, torch_dtype=torch.float16)
pipe.enable_attention_slicing()#如果出現(xiàn)CUDA out of memory.加這行代碼
pipe.scheduler = DPMSolverMultistepScheduler.from_config(pipe.scheduler.config)
pipe = pipe.to("cuda")

prompt = "a photo of an astronaut riding a horse on mars"
image = pipe(prompt).images[0]
    
image.save("astronaut_rides_horse.png")

"a photo of an astronaut riding a horse on mars"在火星上騎馬的生成圖片如下所示,宇航員、馬和火星三個要素都具備,而且riding這個動詞也能夠很好地表現(xiàn)出來。同樣的prompt,sd v2相比于sd V1版本的生成圖像更全面。

【文生圖系列】 Stable Diffusion v2復現(xiàn)教程文章來源地址http://www.zghlxwxcb.cn/news/detail-500455.html

參考

  1. Stability-AI/stablediffusion
  2. stabilityai/stable-diffusion-2-1

到了這里,關于【文生圖系列】 Stable Diffusion v2復現(xiàn)教程的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!

本文來自互聯(lián)網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • Stable Diffusion教程(5) - 文生圖教程

    Stable Diffusion教程(5) - 文生圖教程

    配套視頻教程: https://v.douyin.com/UyHNfYG/? 文生圖界面標注如下 提示詞內輸入的東西就是你想要畫的東西,反向提示詞內輸入的就是你不想要畫的東西 提示框內只能輸入英文,所有符號都要使用英文半角,詞語之間使用半角逗號隔開 1.1 一般原則 一般來說越靠前的詞匯權重就

    2024年02月08日
    瀏覽(26)
  • Stable Diffusion 系列教程 | 圖生圖基礎

    Stable Diffusion 系列教程 | 圖生圖基礎

    前段時間有一個風靡全網的真人轉漫畫風格,受到了大家的喜歡 而在SD里,就可以通過圖生圖來實現(xiàn)類似的效果 當然圖生圖還有更好玩的應用,我們一點一點來探索 首先我們來簡單進行一下圖生圖的這一個實踐---真人轉動漫 和文生圖基本界面差不多,多了一個上傳圖像區(qū)

    2024年02月11日
    瀏覽(27)
  • Stable Diffusion 系列教程 - 1 基礎準備(針對新手)

    Stable Diffusion 系列教程 - 1 基礎準備(針對新手)

    使用SD有兩種方式: 本地: 顯卡要求: 硬件環(huán)境推薦NVIDIA的具有8G顯存的獨立顯卡,這個顯存勉勉強強能摸到門檻。再往下的4G可能面臨各種炸顯存、煉丹失敗、無法生成圖片等各種問題。對于8G顯存,1.0模型就不行,需要更高的環(huán)境配置,所以8G僅僅是個基礎。最好還是16

    2024年02月03日
    瀏覽(19)
  • Stable Diffusion(SD)核心基礎知識——(文生圖、圖生圖)

    Stable Diffusion(SD)核心基礎知識——(文生圖、圖生圖)

    Stable Diffusion是計算機視覺領域的一個生成式大模型,可以用于文生圖,圖生圖,圖像inpainting,ControlNet控制生成,圖像超分等豐富的任務。 文生圖(txt2img) 文生圖任務是指將一段文本輸入到SD模型中,經過一定的迭代次數(shù),SD模型輸出一張符合輸入文本描述的圖片。 步驟一

    2024年01月22日
    瀏覽(79)
  • 【文生圖系列】Stable Diffusion Webui安裝部署過程中bug匯總(Linux系統(tǒng))

    【文生圖系列】Stable Diffusion Webui安裝部署過程中bug匯總(Linux系統(tǒng))

    看網上部署stable diffusion webui的教程,很簡單。而且我也有部署stable diffusion v1/v2的經驗,想著應該會很快部署完stable diffusion webui,但是沒想到在部署過程中,遇到各種各樣的奇葩問題,特此在此記錄一下。 虛擬環(huán)境python stable diffusion webui支持的python版本需大于等于3.10.6,首先

    2024年02月15日
    瀏覽(21)
  • 文生圖模型之Stable Diffusion

    文生圖模型之Stable Diffusion

    參考文章地址 利用文本生成圖片,進一步衍生到inpainting功能 autoencoder CLIP text encoder tokenizer最大長度為77(CLIP訓練時所采用的設置),當輸入text的tokens數(shù)量超過77后,將進行截斷,如果不足則進行paddings,這樣將保證無論輸入任何長度的文本(甚至是空文本)都得到77x768大小

    2024年02月11日
    瀏覽(34)
  • stable diffusion實踐操作-文生圖

    stable diffusion實踐操作-文生圖

    本文專門開一節(jié)寫 文生圖 相關的內容,在看之前,可以同步關注: stable diffusion實踐操作 詳細信息: 底模:SD 1.5 Lora:baihuaniang_1.0 正向提示詞: 反向提示詞: CLP終止層數(shù):2 迭代步數(shù):25 采樣模式(Sampler):DPM++ 2M Karras 提示詞引導數(shù)(CFG Scales):11 隨機數(shù)種子(seed):2514

    2024年02月10日
    瀏覽(23)
  • Stable Diffusion 文生圖技術原理

    Stable Diffusion 文生圖技術原理

    圖片生成領域來說,有四大主流生成模型:生成對抗模型(GAN)、變分自動編碼器(VAE)、流模型(Flow based Model)、擴散模型(Diffusion Model)。 從2022年開始,主要爆火的圖片生成模型是Diffusion Model(擴散模型)為主。 Diffusion Model:擴散模型,當前DALL-E, Midjourney, Stable Diffu

    2024年02月11日
    瀏覽(24)
  • Stable diffusion UI 介紹-文生圖

    Stable diffusion UI 介紹-文生圖

    1.提示詞: 你希望圖中有什么東西 2.負面提示詞:你不希望圖中有什么東西 選用了什么模型 使用參數(shù) 1.采樣器 sampling method 使用什么算法進行采樣 2.采樣迭代步數(shù) sampling steps 生成圖像迭代的步數(shù),越多越好,但是生成速度越大越慢 3. 寬度和長度 生成圖片的大小 按照模型的

    2024年02月22日
    瀏覽(23)
  • AIGC:文生圖模型Stable Diffusion

    AIGC:文生圖模型Stable Diffusion

    Stable Diffusion 是由CompVis、Stability AI和LAION共同開發(fā)的一個文本轉圖像模型,它通過LAION-5B子集大量的 512x512 圖文模型進行訓練,我們只要簡單的輸入一段文本,Stable Diffusion 就可以迅速將其轉換為圖像,同樣我們也可以置入圖片或視頻,配合文本對其進行處理。 Stable Diffusion的

    2024年02月15日
    瀏覽(21)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包