国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Stable Diffusion - Stable Diffusion WebUI 支持 SDXL 1.0 模型的環(huán)境配置

這篇具有很好參考價值的文章主要介紹了Stable Diffusion - Stable Diffusion WebUI 支持 SDXL 1.0 模型的環(huán)境配置。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

歡迎關注我的CSDN:https://spike.blog.csdn.net/
本文地址:https://spike.blog.csdn.net/article/details/132056980

Stable Diffusion - Stable Diffusion WebUI 支持 SDXL 1.0 模型的環(huán)境配置,Stable Diffusion,stable diffusion,SDXL,DreamShaper

SDXL 1.0 版本 是 Stable Diffusion 的最新版本,是基于潛在擴散模型的文本到圖像生成技術,能夠根據(jù)輸入的任何文本生成高分辨率、高質(zhì)量、高多樣性的圖像,具有以下特點:

  • 更好的成像質(zhì)量:能夠以幾乎任何藝術風格生成清晰、逼真、美觀的圖像,無論是風景、人物、建筑還是動物,都能呈現(xiàn)出細節(jié)和色彩,相比于之前的版本有著巨大的提升。

  • 更多的藝術風格:相比于之前的版本,能夠?qū)崿F(xiàn)更多的風格,并且對于每種風格都能駕馭。因此,可以嘗試更多的藝術家名稱和美學,比如梵高、莫奈、達利等,也可以自由創(chuàng)造出想要的風格。

  • 更智能、更簡單的語言:只需少量單詞,就能創(chuàng)建復雜、詳細、美觀的圖像。不再需要調(diào)用 “杰作” 等限定詞,來獲得高質(zhì)量圖像。

  • 更高的分辨率:基礎分辨率是 1024x1024,相比于之前的版本,可以產(chǎn)生更好的圖像細節(jié),同時處理寬高比的效果更好??梢愿鶕?jù)需求選擇不同的分辨率和寬高比,例如16:9、3:2、4:3等。

  • 更大的開放圖像模型:在已知的開源文生圖模型中,SDXL 擁有最大的參數(shù)量,建立在一個創(chuàng)新的架構之上,即由 3.5B 參數(shù)的基礎模型和 6.6B 參數(shù)的精煉器組成。完整模型由一個專家混合管道組成,用于潛在擴散。

SDXL 進行以下優(yōu)化:

  • 對于 Stable Diffusion 的U-Net、VAE、CLIP Text Encoder三大組件都做了改進。

    • U-Net 增加 Transformer Blocks (自注意力 + 交叉注意力) 來增強特征提取和融合能力;
    • VAE 增加條件變分自編碼器來提升潛在空間的表達能力;
    • CLIP Text Encoder 增加兩個大小不同的編碼器來提升文本理解和匹配能力。
  • 增加單獨基于 Latent 的 Refiner 模型,來提升圖像的精細化程度。Refiner 模型也是一個潛在擴散模型,接收基礎模型生成的圖像 Latent 特征作為輸入,進一步去噪和優(yōu)化,使得最終輸出的圖像更加清晰和銳利。

  • 設計了很多訓練 Tricks,包括圖像尺寸條件化策略,圖像裁剪參數(shù)條件化以及多尺度訓練等。這些 Tricks 可以提高模型的泛化能力和穩(wěn)定性,使得模型能夠適應不同的分辨率和寬高比,以及不同的圖像內(nèi)容和風格。

  • 預先發(fā)布 SDXL 0.9 測試版本,基于用戶使用體驗和生成圖片的情況,針對性增加數(shù)據(jù)集和使用 RLHF 技術優(yōu)化迭代推出 SDXL 1.0 正式版。RLHF 是一種基于強化學習的圖像質(zhì)量評估技術,可以根據(jù)人類的偏好來調(diào)整模型的參數(shù),使得生成圖像的色彩,對比度,光線以及陰影方面更加符合人類的審美。


1. 升級 WebUI

查看 Stable Diffusion WebUI 的當前版本,以及更新至最新版本,即:

git pull
git diff [your file]
git checkout [your file]
git pull
git tag
git pull origin master

升級之后,在 modules/ui_extensions.py 中修改插件更新源,實現(xiàn)更快查詢,即:

https://ghproxy.com/

stable-diffusion-webui 官網(wǎng) GitHub

當前最新版本的提交,即:

commit 68f336bd994bed5442ad95bad6b6ad5564a5409a
Merge: a3ddf46 50973ec
Author: AUTOMATIC1111 <16777216c@gmail.com>
Date:   Thu Jul 27 09:02:22 2023 +0300

    Merge branch 'release_candidate'

建議預先下載支持工程,工程較大,建議提前下載,即:

cd repositories
git clone https://ghproxy.com/https://github.com/Stability-AI/generative-models.git

重啟 WebUI,即可。

nohup python -u launch.py --listen --port 9301 --xformers --no-half-vae --enable-insecure-extension-access --theme dark --gradio-queue > nohup.62.out &
tail -f nohup.62.out

輸出日志,啟動正確,即:

Python 3.8.16 (default, Mar  2 2023, 03:21:46) 
[GCC 11.2.0]
Version: v1.5.1
Commit hash: 68f336bd994bed5442ad95bad6b6ad5564a5409a
Checking roop requirements
Install insightface==0.7.3
Installing sd-webui-roop requirement: insightface==0.7.3
Install onnx==1.14.0
Installing sd-webui-roop requirement: onnx==1.14.0
Install onnxruntime==1.15.0
Installing sd-webui-roop requirement: onnxruntime==1.15.0
Install opencv-python==4.7.0.72
Installing sd-webui-roop requirement: opencv-python==4.7.0.72
Launching Web UI with arguments: --listen --port 9301 --xformers --no-half-vae --enable-insecure-extension-access --theme dark --gradio-queue
[-] ADetailer initialized. version: 23.7.6, num models: 12
dirname:  /nfs_baoding/chenlong/workspace_v2/stable_diffusion_webui_docker/localizations
localizations:  {'zh-Hans (Stable)': 'extensions/stable-diffusion-webui-localization-zh_Hans/localizations/zh-Hans (Stable).json', 'zh-Hans (Testing)': 'extensions/stable-diffusion-webui-localization-zh_Hans/localizations/zh-Hans (Testing).json'}
2023-08-02 09:27:48,494 - ControlNet - INFO - ControlNet v1.1.233
ControlNet preprocessor location: /nfs_baoding/chenlong/workspace_v2/stable_diffusion_webui_docker/extensions/sd-webui-controlnet/annotator/downloads
2023-08-02 09:27:49,996 - ControlNet - INFO - ControlNet v1.1.233
sd-webui-prompt-all-in-one background API service started successfully.
2023-08-02 09:28:02,472 - roop - INFO - roop v0.0.2
2023-08-02 09:28:02,516 - roop - INFO - roop v0.0.2
Loading weights [ed989d673d] from models/Stable-diffusion/Dreamshaper_7.safetensors
Creating model from config: /configs/v1-inference.yaml
LatentDiffusion: Running in eps-prediction mode
DiffusionWrapper has 859.52 M params.
Applying attention optimization: xformers... done.
Model loaded in 4.9s (load weights from disk: 0.2s, create model: 0.6s, apply weights to model: 1.3s, apply half(): 0.6s, move model to device: 1.4s, load textual inversion embeddings: 0.6s).
Running on local URL:  http://0.0.0.0:9301
To create a public link, set `share=True` in `launch()`.
Startup time: 657.7s (launcher: 356.6s, import torch: 105.7s, import gradio: 22.1s, setup paths: 27.5s, import ldm: 0.3s, other imports: 21.2s, opts onchange: 0.2s, setup codeformer: 1.7s, list SD models: 0.5s, load scripts: 92.9s, load upscalers: 0.2s, initialize extra networks: 0.2s, create ui: 7.8s, gradio launch: 18.2s, app_started_callback: 2.5s).

2. 配置環(huán)境

安裝 Refiner 支持插件,參考,即:

cd extensions
git clone https://ghproxy.com/https://github.com/wcde/sd-webui-refiner.git

最新插件源,即:

https://gitcode.net/rubble7343/sd-webui-extensions/raw/master/index.json

準備 SDXL 模型,建議下載地址 LiblibAI,即:

  • Stable Diffusion SDXL 正式版
  • Stable Diffusion SDXL refiner
  • SDXL_offset_example-lora

cd models/Stable-diffusion

# Stable Diffusion SDXL 正式版
wget https://liblibai-online.liblibai.com/models/31e35c80fc4829d14f90153f4c74cd59c90b779f6afe05a74cd6120b893f7e5b.safetensors?attname=Stable%20Diffusion%20SDXL%20%E6%AD%A3%E5%BC%8F%E7%89%88_sdxl_1.0.safetensors -O SDXL_1.0.safetensors

# Stable Diffusion SDXL refiner
wget https://liblibai-online.liblibai.com/models/7440042bbdc8a24813002c09b6b69b64dc90fded4472613437b7f55f9b7d9c5f.safetensors?attname=Stable%20Diffusion%20SDXL%20refiner_1.0%20refiner.safetensors -O SDXL_refiner_1.0.safetensors

# DreamShaper XL1.0 alpha2 
wget "https://liblibai-online.liblibai.com/models/0f1b80cfe81b9c3bde7fdcbf6898897b2811b27be1df684583c3d85cbc9b1fa4.safetensors?attname=DreamShaper%20XL1.0_alpha2%20(xl1.0).safetensors" -O DreamShaper_XL1.0_alpha2.safetensors

cd models/Lora

# SDXL_offset_example-lora
wget https://liblibai-online.liblibai.com/web/model/4852686128f953d0277d0793e2f0335352f96a919c9c16a09787d77f55cbdf6f.safetensors?attname=SDXL_offset_example-lora_1.0.safetensors -O SDXL_offset_lora_1.0.safetensors

顯存占用,峰值大約 25G 左右,即:

Stable Diffusion - Stable Diffusion WebUI 支持 SDXL 1.0 模型的環(huán)境配置,Stable Diffusion,stable diffusion,SDXL,DreamShaper


3. 測試圖像

測試:

photo, 8k portrait of beautiful cyborg with brown hair, intricate, elegant, highly detailed, majestic, digital photography, art by artgerm and ruan jia and greg rutkowski surreal painting gold butterfly filigree, broken glass, (masterpiece, sidelighting, finely detailed beautiful eyes: 1.2), hdr, realistic, high definition
Steps: 40, Sampler: DPM++ 2M SDE Karras, CFG scale: 8, Seed: 17748028598468, Face restoration: GFPGAN, Size: 1024x1024, Model hash: 31e35c80fc, Model: SDXL_1.0, Clip skip: 2, Version: v1.5.1

seed:17748028598468

注意:目前不加負向提示詞,且不要使用高清修復,效果很差。

面部修復建議使用 GFPGAN 算法,即:

Stable Diffusion - Stable Diffusion WebUI 支持 SDXL 1.0 模型的環(huán)境配置,Stable Diffusion,stable diffusion,SDXL,DreamShaper

原版模型與GFPGAN的效果差異,即:
Stable Diffusion - Stable Diffusion WebUI 支持 SDXL 1.0 模型的環(huán)境配置,Stable Diffusion,stable diffusion,SDXL,DreamShaper

DreamShaper的效果,額外添加負向提示詞 NSFW,關閉 Refiner (是否開啟差別不大),即:

photo, 8k portrait of beautiful cyborg with brown hair, intricate, elegant, highly detailed, majestic, digital photography, art by artgerm and ruan jia and greg rutkowski surreal painting gold butterfly filigree, broken glass, (masterpiece, sidelighting, finely detailed beautiful eyes: 1.2), hdr, realistic, high definition
Negative prompt: nsfw,
Steps: 40, Sampler: DPM++ 2M SDE Karras, CFG scale: 8, Seed: 17748028598468, Face restoration: GFPGAN, Size: 1024x1024, Model hash: 0f1b80cfe8, Model: DreamShaper_XL1.0_alpha2, Clip skip: 2, Version: v1.5.1

圖像效果:
Stable Diffusion - Stable Diffusion WebUI 支持 SDXL 1.0 模型的環(huán)境配置,Stable Diffusion,stable diffusion,SDXL,DreamShaper文章來源地址http://www.zghlxwxcb.cn/news/detail-627255.html

到了這里,關于Stable Diffusion - Stable Diffusion WebUI 支持 SDXL 1.0 模型的環(huán)境配置的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內(nèi)容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • Stable Diffusion 免費升級 SDXL 1.0,哪些新特性值得關注?體驗如何?5 分鐘帶你體驗!

    Stable Diffusion 免費升級 SDXL 1.0,哪些新特性值得關注?體驗如何?5 分鐘帶你體驗!

    7 月 26 日,Stability AI 發(fā)布了 SDXL 1.0,號稱目前為止,最厲害的開放式圖像生成大模型。 它到底有沒有網(wǎng)上說的那么炸裂?真的已經(jīng)實現(xiàn)了像 midjourney 一樣 靠嘴出圖 的功能嗎?相對于之前的版本,增加了哪些新特性? 今天體驗了一把,一起來看看! 大家都知道,目前的繪畫

    2024年02月05日
    瀏覽(23)
  • Stable Diffusion - SDXL 模型測試 (DreamShaper 和 GuoFeng v4) 與全身圖像參數(shù)配置

    Stable Diffusion - SDXL 模型測試 (DreamShaper 和 GuoFeng v4) 與全身圖像參數(shù)配置

    歡迎關注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/132085757 圖像來源于 SDXL 模型,藝術風格是賽博朋克、漫畫、奇幻。 全身圖像是指拍攝對象的整個身體都在畫面中的照片,可以展示人物的姿態(tài)、服裝、氣質(zhì)等特點,也可以表達一種情緒或故

    2024年02月14日
    瀏覽(19)
  • Stable Diffusion - Stable Diffusion WebUI 圖像生成工具的環(huán)境配置

    Stable Diffusion - Stable Diffusion WebUI 圖像生成工具的環(huán)境配置

    歡迎關注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/131528224 Stable Diffusion WebUI 是一款基于深度學習的圖像生成工具,根據(jù)用戶的輸入文本或圖像,生成高質(zhì)量的新圖像,特點如下: 支持多種圖像生成任務,如人臉生成、風格遷移、圖像修復、

    2024年02月16日
    瀏覽(28)
  • stable_diffusion_webui docker環(huán)境配置

    1.新建docker環(huán)境 2.安裝miniconda 3.配置stable_diffusion_webui 直接使用stable_difffusion_webui下的launch.py可能會有些問題,建議 4.安裝tensorrt 1.利用vim進入~/.bashrc文檔,摁住ctrl+g,直接跳到最后一行,摁一下i鍵,進入插入模式,現(xiàn)在可以編輯文檔了。 2.跳到最后一個字符,摁一下?lián)Q行,可

    2024年02月12日
    瀏覽(19)
  • Stable-Diffusion-Webui部署SDXL0.9報錯參數(shù)shape不匹配解決

    Stable-Diffusion-Webui部署SDXL0.9報錯參數(shù)shape不匹配解決

    已經(jīng)在model/stable-diffusion文件夾下放進去了sdxl0.9的safetensor文件,但是在切換model的時候,會報錯model的shape不一致。 update一些web-ui項目就可以,因為當前項目太老了,沒有使用最新的版本。

    2024年02月15日
    瀏覽(26)
  • Windows下stable diffusion webui環(huán)境配置詳細教程

    Windows下stable diffusion webui環(huán)境配置詳細教程

    https://github.com/AUTOMATIC1111/stable-diffusion-webui 官方要求python版本3.10.6,實測python3.9.13可用 安裝Python https://www.python.org/downloads/windows/ 2. 安裝Git并配置 詳情參考:https://blog.csdn.net/shuang_waiwai/article/details/121108964 3. Clone庫stable-diffusion-webui 直接Git clone: 或: 4. 運行配置文件 強烈建議

    2024年02月11日
    瀏覽(24)
  • 本地部署 Stable Diffusion XL 1.0 Gradio Demo WebUI

    本地部署 Stable Diffusion XL 1.0 Gradio Demo WebUI

    7月27日,Stability AI 發(fā)布了 StableDiffusion XL 1.0 版本,立即體驗一下吧。 一個基于Gradio庫的 Stable Diffusion 的 Web UI 界面。 https://github.com/TonyLianLong/stable-diffusion-xl-demo 下載 Conda 安裝腳本, 運行安裝腳本, 按提示操作。當提示是否初始化 Conda 時,輸入 “yes”, 安裝完成后,關閉當

    2024年02月15日
    瀏覽(22)
  • Stable Diffusion - 配置 WebUI 升級至 v1.6.0 版本與 VirtualENV 環(huán)境配置

    Stable Diffusion - 配置 WebUI 升級至 v1.6.0 版本與 VirtualENV 環(huán)境配置

    歡迎關注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/132177882 圖像基于 哥特風格 繪制,參考 哥特 (Goth) 風格服裝與背景的 LoRA 配置 Stable Diffusion WebUI 是一款基于 Stable Diffusion 模型的網(wǎng)頁前端工具,通過簡單的文本輸入或者圖像修改來生成高質(zhì)

    2024年02月08日
    瀏覽(22)
  • stable diffusion實踐操作-大模型介紹-SDXL1大模型

    stable diffusion實踐操作-大模型介紹-SDXL1大模型

    大家移步下面鏈接中,里面詳細介紹了stable diffusion的原理,操作等(本文只是下面系列文章的一個寫作模板)。 stable diffusion實踐操作 提示:寫完文章后,目錄可以自動生成,如何生成可參考右邊的幫助文檔 經(jīng)過SDXL0.9和SDXL Beta的迭代,終于SDXL1.0正式版發(fā)布了! 之前使用A

    2024年02月09日
    瀏覽(26)
  • 新一代圖像合成模型:Stable Diffusion XL(SDXL)上線!

    新一代圖像合成模型:Stable Diffusion XL(SDXL)上線!

    幾個使用Stable Diffusion XL 1.0生成的圖像示例。 新的SDXL 1.0發(fā)布允許在本地計算機上運行的高分辨率人工智能圖像合成。 周三,Stability AI發(fā)布了其下一代開源權重人工智能圖像合成模型Stable Diffusion XL 1.0(SDXL)。它可以根據(jù)文本描述生成新穎的圖像,并生成比之前版本的Stable

    2024年02月11日
    瀏覽(25)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包