国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【深度學(xué)習(xí)】Stable Diffusion AI 繪畫項目搭建詳解,并運行案例

這篇具有很好參考價值的文章主要介紹了【深度學(xué)習(xí)】Stable Diffusion AI 繪畫項目搭建詳解,并運行案例。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

前言

先把人家的git放過來:https://github.com/CompVis/stable-diffusion
40.7k 的stars, flask 和 django 兩個web框架也不過如此數(shù)量級吧。
就是給一段文字,它能按照文字描述給你畫畫。畫出來的還挺好看,是一個text-to-image diffusion model
是基于transformer 和多模態(tài)的一個產(chǎn)品。

Stable Diffusion is a latent text-to-image diffusion model. Thanks to a generous compute donation from Stability AI and support from LAION, we were able to train a Latent Diffusion Model on 512x512 images from a subset of the LAION-5B database. Similar to Google’s Imagen, this model uses a frozen CLIP ViT-L/14 text encoder to condition the model on text prompts. With its 860M UNet and 123M text encoder, the model is relatively lightweight and runs on a GPU with at least 10GB VRAM.
這一段是我從git上copy下來的,翻譯:
Stable Diffusion 是文本到圖像的擴散模型,多虧了來自Stability AI和 LAION的支持我們能基于數(shù)據(jù)集LAION-5B database訓(xùn)練出一個512x512圖像的潛在擴散模型。和 Google的畫像類似,我們這個模型用了fronzen的CLIP vv - l /14文本編碼器來根據(jù)文本提示調(diào)整模型,由于60M UNet 和 123M text encoder,這個模型是輕量級別的,并且可以跑在最低10GB顯存的GPU上,[媽的,這還是輕量級的],

1.安裝環(huán)境

1.1 基礎(chǔ)環(huán)境

  • 沒有環(huán)境新建環(huán)境

A suitable conda environment named ldm can be created and activated with:

conda env create -f environment.yaml
conda activate ldm
  • 存在環(huán)境后的更新環(huán)境
    You can also update an existing latent diffusion environment by running
conda install pytorch torchvision -c pytorch
pip install transformers==4.19.2 diffusers invisible-watermark
pip install -e .

可能遇到的問題:

ERROR: Command errored out with exit status 128: git clone -q https://github.com/openai/CLIP.git /home/jianming_ge/workplace/stable-diffusion-main/src/clip Check the logs for full command output.

pytouch 繪畫,人工智能,深度學(xué)習(xí),stable diffusion
原因在這里,是因為server網(wǎng)絡(luò)連不到git上。
我的解決方案:

 pip install taming-transformers
 pip install clip
 # 最后
 pip install -e .

1.2 權(quán)重文件

權(quán)重文件在git的這里。
pytouch 繪畫,人工智能,深度學(xué)習(xí),stable diffusion

我選的是stable-diffusion-v1-4,
https://huggingface.co/CompVis/stable-diffusion-v1-4

2.牛刀小試

2.1 用法在這里

pytouch 繪畫,人工智能,深度學(xué)習(xí),stable diffusion
漫長的下載過程

(py39_torch1.10.1) [jianming_ge@localhost workplace]$ /home/jianming_ge/miniconda3/envs/py39_torch1.10.1/bin/python /home/jianming_ge/workplace/ldm.py
Downloading ()ain/model_index.json: 100%|██████████████████████████████████████████████████████████████████████████████████████████████████████████| 543/543 [00:00<00:00, 86.8kB/s]
Downloading ()rocessor_config.json: 100%|██████████████████████████████████████████████████████████████████████████████████████████████████████████| 342/342 [00:00<00:00, 85.7kB/s]
Downloading ()_checker/config.json: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████| 4.56k/4.56k [00:00<00:00, 916kB/s]
Downloading ()_encoder/config.json: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 592/592 [00:00<00:00, 160kB/s]
Downloading ()cheduler_config.json: 100%|██████████████████████████████████████████████████████████████████████████████████████████████████████████| 313/313 [00:00<00:00, 62.5kB/s]
Downloading ()nfig-checkpoint.json: 100%|██████████████████████████████████████████████████████████████████████████████████████████████████████████| 209/209 [00:00<00:00, 43.9kB/s]
Downloading ()okenizer_config.json: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 806/806 [00:00<00:00, 186kB/s]
Downloading ()3d4/unet/config.json: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 743/743 [00:00<00:00, 318kB/s]
Downloading ()cial_tokens_map.json: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 472/472 [00:00<00:00, 101kB/s]
Downloading ()nfig-checkpoint.json:   0%|                                                                                                                 | 0.00/209 [00:00<?, ?B/s/home/jianming_ge/miniconda3/envs/ldm/bin/python /home/jianming_ge/workplace/ldm.py                                                                         | 0.00/806 [00:00<?, ?B/s]
Downloading ()23d4/vae/config.json: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 522/522 [00:00<00:00, 176kB/s]
Downloading ()tokenizer/merges.txt: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████| 525k/525k [00:16<00:00, 31.7kB/s]
Downloading ()tokenizer/vocab.json: 100%|██████████████████████████████████████████████████████████████████████████████████████████████████████| 1.06M/1.06M [00:30<00:00, 34.8kB/s]
Downloading ()"pytorch_model.bin";: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████| 492M/492M [06:19<00:00, 1.30MB/s]
Downloading ()_pytorch_model.bin";: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████| 335M/335M [11:17<00:00, 494kB/s]
Downloading (…)"pytorch_model.bin";:   3%|███▌                                                                                                  | 41.9M/1.22G [00:26<13:22, 1.46MB/s]
Downloading (…)"pytorch_model.bin";:  26%|██████████████████████████▉                                                                             | 315M/1.22G [06:06<23:42, 634kB/s]
Downloading (…)"pytorch_model.bin";:  47%|█████████████████████████████████████████████████▎                                                      | 577M/1.22G [11:12<14:50, 718kB/s]
Downloading (…)"pytorch_model.bin";:  89%|██████████████████████████████████████████████████████████████████████████████████████████▌           | 1.08G/1.22G [16:20<01:12, 1.88MB/s]
Downloading (…)_pytorch_model.bin";:  38%|██████████████████████████████████████▌                                                               | 1.30G/3.44G [16:14<21:55, 1.63MB/s]
Downloading ()_pytorch_model.bin";: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████| 335M/335M [11:17<00:00, 458kB/s]

深度學(xué)習(xí)一半時間在鼓搗環(huán)境啊
出來了
pytouch 繪畫,人工智能,深度學(xué)習(xí),stable diffusion
全套代碼在這里

import torch
from diffusers import StableDiffusionPipeline

model_id = "CompVis/stable-diffusion-v1-4"
device = "cuda"


pipe = StableDiffusionPipeline.from_pretrained(model_id, torch_dtype=torch.float16)
pipe = pipe.to(device)

prompt = "a photo of an astronaut riding a horse on mars"
image = pipe(prompt).images[0]  
    
image.save("astronaut_rides_horse.png")

命令行下10幾秒鐘一張
模型提示輸入這個會快一些:

pip install accelerate

pytouch 繪畫,人工智能,深度學(xué)習(xí),stable diffusion

3.封裝api

待續(xù)

總結(jié)

好玩是挺好玩,但是就拉個git沒學(xué)到東西啊,算法工程師真的就是git拉個項目么。。。。嗚嗚嗚
唯一遇到的問題是可能服務(wù)器上安裝不上因為
pytouch 繪畫,人工智能,深度學(xué)習(xí),stable diffusion
你連上git文章來源地址http://www.zghlxwxcb.cn/news/detail-790920.html

到了這里,關(guān)于【深度學(xué)習(xí)】Stable Diffusion AI 繪畫項目搭建詳解,并運行案例的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 深度解析丨AI繪畫Stable Diffusion如何實現(xiàn)模特精準(zhǔn)換裝以及如何替換模特

    深度解析丨AI繪畫Stable Diffusion如何實現(xiàn)模特精準(zhǔn)換裝以及如何替換模特

    一、前言 來了來了,之前給大家承諾的模特?fù)Q裝教程它來了!本篇教程主要運用StableDiffusion這個工具來進行操作,下面會通過幾個小案例,給大家展示不同需求下,我們該如何使用StableDiffusion來輔助我們完成服裝效果展示。本教程適用于電商設(shè)計場景、攝影場景等多個運用人

    2024年04月15日
    瀏覽(36)
  • Window 10搭建AI繪畫平臺-stable-diffusion-webui

    Window 10搭建AI繪畫平臺-stable-diffusion-webui

    一,安裝環(huán)境: ????????1,Python Release Python 3.10.6 | Python.org ????????一定要安裝 Python3.10.6 以上版本,并配好環(huán)境變量。 ? ? ? ? ? ? ? 2,Pytorch??CUDA Toolkit Archive | NVIDIA Developer ? ? ? ? ? ? ??安裝CUDA,下載如下部署電腦截圖的對應(yīng)版本。 ? ? ? ? ? ? ? ? ? ? ?

    2024年02月16日
    瀏覽(28)
  • ai繪畫工具Stable Diffusion,Windows本地環(huán)境搭建教程(保姆級)

    ai繪畫工具Stable Diffusion,Windows本地環(huán)境搭建教程(保姆級)

    配置要求 Windos 10及以上的操作系統(tǒng); GPU顯存最低4G, NVIDIA卡; 由于各種模型體量比較大,一個大模型2-5G,需留有充足的存儲空間(20g+); 為什么選擇Stable Diffusion 靈活開源,強大的ai生成工具 各種插件,大佬云集 沒有審核限制 準(zhǔn)備工作 (需要的安裝包文中提供了下載鏈接,

    2024年02月05日
    瀏覽(32)
  • AI繪畫基于 Kaggle 10 分鐘搭建 Stable Diffusion(保姆級教程)

    AI繪畫基于 Kaggle 10 分鐘搭建 Stable Diffusion(保姆級教程)

    當(dāng)前最火的、也是日常繪畫最常用兩個 AI 繪畫工具就屬 Midjourney 和 Stable Diffusion 了。 而相對于 Midjourney(基礎(chǔ)版也要 $10 / month)來說,Stable Diffusion 最大的好處就是: 完全免費! (免費啊,寶子們) 完全開源! 但是 Stable Diffusion 的 安裝部署比較復(fù)雜 ,而且 對電腦配置要求

    2024年02月11日
    瀏覽(96)
  • AI 繪畫Stable Diffusion 研究(八)sd采樣方法詳解

    大家好,我是風(fēng)雨無阻。 本期內(nèi)容: 什么是采樣方法 ? 采樣方法的分類有哪些? 怎么選擇合適的采樣方法? 在 Stable Diffusion中目前已經(jīng)有很多采樣方法 ,不同的采樣方法,出圖效果不同。這里將詳細(xì)介紹這些采樣方法,以及在使用 Stable Diffusion 的過程中,怎么選擇合適的

    2024年02月12日
    瀏覽(24)
  • AI 繪畫Stable Diffusion 研究(十六)SD Hypernetwork詳解

    AI 繪畫Stable Diffusion 研究(十六)SD Hypernetwork詳解

    大家好,我是風(fēng)雨無阻。 本期內(nèi)容: 什么是 Hypernetwork? Hypernetwork 與其他模型的區(qū)別? Hypernetwork 原理 Hypernetwork 如何下載安裝? Hypernetwork 如何使用? 在上一篇文章中,我們詳細(xì)介紹了 embedding 的定義、作用以及如何安裝使用 ,相信看過的朋友都知道,embedding 是屬于一種將

    2024年02月11日
    瀏覽(29)
  • AI 繪畫Stable Diffusion 研究(十五)SD Embedding詳解

    AI 繪畫Stable Diffusion 研究(十五)SD Embedding詳解

    大家好,我是風(fēng)雨無阻。 本期內(nèi)容: Embedding是什么? Embedding有什么作用? Embedding如何下載安裝? 如何使用Embedding? 大家還記得 AI 繪畫Stable Diffusion 研究(七) 一文讀懂 Stable Diffusion 工作原理 這篇文章中,曾提到過詞嵌入(Embedding)嗎? 我們來簡單回顧一下:Embedding 將輸

    2024年02月11日
    瀏覽(31)
  • AI繪畫Stable Diffusion 高清放大,多種方法詳解,建議收藏!

    AI繪畫Stable Diffusion 高清放大,多種方法詳解,建議收藏!

    在Stable Diffusion我們想要得到一張高分辨率且具有細(xì)節(jié)特征的圖片時,我們就需要使用一些圖片放大算法來幫助我們實現(xiàn)。 本文主要概述在sd中常常使用的高清修復(fù)方法以及不同方法的區(qū)別和應(yīng)用場景。同時也給出一些推薦的工作流,你可以根據(jù)自己的情況來選擇適合你的。

    2024年04月16日
    瀏覽(25)
  • AI 繪畫Stable Diffusion 研究(十七)SD lora 詳解(上)

    AI 繪畫Stable Diffusion 研究(十七)SD lora 詳解(上)

    大家好,我是風(fēng)雨無阻。 本期內(nèi)容: Lora的原理是什么? Lora如何下載安裝? Lora如何使用? 大家還記得 AI 繪畫Stable Diffusion 研究(三)sd模型種類介紹及安裝使用詳解 這篇文章中,曾簡單介紹了Lora的安裝和使用嗎 ? 但是我們并不清楚LORA 的原理是什么?以及使用過程中有什

    2024年02月10日
    瀏覽(23)
  • 一行指令自動搭建AI繪畫:stable-diffusion-webui_v1.3.2

    一行指令自動搭建AI繪畫:stable-diffusion-webui_v1.3.2

    本文使用docker進行部署,環(huán)境等所有依賴全部整合完畢(版本:v1.3.2) 容器內(nèi)默認(rèn)已支持(無需額外配置):xformers + controlnet 支持自定義啟動參數(shù),本文示例為開放api接口供外部業(yè)務(wù)調(diào)用,并已解決API方式下Lora不生效的BUG;開啟方式文末細(xì)說 首次啟動下載必要依賴較耗時,

    2024年02月12日
    瀏覽(16)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包