国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Stable Diffusion+ControlNet+Lora 指導(dǎo)AI+藝術(shù)設(shè)計的WebUI全流程使用教程

這篇具有很好參考價值的文章主要介紹了Stable Diffusion+ControlNet+Lora 指導(dǎo)AI+藝術(shù)設(shè)計的WebUI全流程使用教程。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。


設(shè)計師們往往對于新出的繪畫工具上手比較艱難,本文針對目前比較火熱的Stable Diffusion+ControlNet指導(dǎo)AI藝術(shù)設(shè)計的工具使用進行全面講解。很多人會有預(yù)感,未來要么設(shè)計師被圖形學程序員取代,要么會使用AI工具的設(shè)計師取代傳統(tǒng)設(shè)計師,2023年開始,AI輔助設(shè)計甚至主導(dǎo)設(shè)計已經(jīng)成了司空見慣的現(xiàn)象。

軟硬件環(huán)境:
OS: Ubuntu 20.04(Stable Diffusion開發(fā)需要Linux 環(huán)境,純使用Web工具也可在WIndows下運行)
CPU: AMD5800 8core 16Thread
GPU: NVIDIA RTX 3090 * 2
RAM: 16GB * 4
Pytorch-gpu=1.13
CUDA=11.7

一. 背景知識

1.1 Stable Diffusion背景知識

1.1.1 安裝stable-diffusion-webui

由于筆者的系統(tǒng)為Linux ,因此需要按照官網(wǎng)(https://github.com/AUTOMATIC1111/stable-diffusion-webui)的操作進行以下配置:

# Debian-based:
sudo apt install wget git python3 python3-venv
bash <(wget -qO- https://raw.githubusercontent.com/AUTOMATIC1111/stable-diffusion-webui/master/webui.sh)

下載好stable-dffusion-webui后,還需要單獨安裝gfpgan 包(https://gitcode.net/mirrors/TencentARC/GFPGAN?utm_source=csdn_github_accelerator),安裝方式如下:

git clone https://github.com/TencentARC/GFPGAN.git
cd GFPGAN
# Install basicsr - https://github.com/xinntao/BasicSR
# We use BasicSR for both training and inference
pip install basicsr

# Install facexlib - https://github.com/xinntao/facexlib
# We use face detection and face restoration helper in the facexlib package
pip install facexlib

pip install -r requirements.txt
python setup.py develop

# If you want to enhance the background (non-face) regions with Real-ESRGAN,
# you also need to install the realesrgan package
pip install realesrgan

安裝好后將GFPGAN 目錄放在stable-diffusion-webui 目錄下,同時改名為gfpgan ,注意,這里如果不修改名字這個包將不可用。
Stable Diffusion+ControlNet+Lora 指導(dǎo)AI+藝術(shù)設(shè)計的WebUI全流程使用教程
然后運行以下命令并等待自動安裝好其他環(huán)境依賴包:

./webui.sh 

這里安裝requirements.rxt中的內(nèi)容可能需要等待一段時間:
Stable Diffusion+ControlNet+Lora 指導(dǎo)AI+藝術(shù)設(shè)計的WebUI全流程使用教程

1.2 ControlNet 背景知識

二. 使用方法

目前開放AI+藝術(shù)設(shè)計工具的方式多為Web交互界面,接入互聯(lián)網(wǎng)后調(diào)用AI公司內(nèi)部的云GPU服務(wù)器,服務(wù)器計算后返回結(jié)果給用戶。其大多有次數(shù)或功能限制,或者收費較高。本部分講述如何利用本地GPU工作機進行Web交互式AI繪圖。

2.1 環(huán)境配置

下載以下四個源代碼/模型文件:

  1. 主要使用的SD的Web版本(第三方,非官方):

    stable-diffusion-webui

  2. 下載SD官方的v1.5模型:
    runwayml/stable-diffusion-v1-5

  3. 下載ControlNet的Web版本(第三方,非官方):
    Mikubill/sd-webui-controlnet

  4. 下載ControlNet官方發(fā)布的模型:
    lllyasviel/ControlNet/tree/main/models

下載好后首先進入stable-diffusion-webui 中,注意將 Mikubill/sd-webui-controlnet 的源代碼放在 extensions 目錄下面:

Stable Diffusion+ControlNet+Lora 指導(dǎo)AI+藝術(shù)設(shè)計的WebUI全流程使用教程
將下載好的ControlNet源代碼目錄中的models 復(fù)制到extensions 下面:

Stable Diffusion+ControlNet+Lora 指導(dǎo)AI+藝術(shù)設(shè)計的WebUI全流程使用教程

2.2 運行WebUI

在命令行中執(zhí)行腳本(注意不要使用sudo命令,否則會不成功):

./webui.sh 

接下來腳本自動進行環(huán)境安裝和模型加載。加載完畢后會返回一個本地Web網(wǎng)址,訪問這個網(wǎng)址可以進行本地瀏覽器界面交互:
Stable Diffusion+ControlNet+Lora 指導(dǎo)AI+藝術(shù)設(shè)計的WebUI全流程使用教程
復(fù)制url,打開瀏覽器,即可得到帶有ControlNet功能的SD的WebUI交互界面,可以利用界面上面的組件進行本地的快速交互設(shè)計開發(fā)。
Stable Diffusion+ControlNet+Lora 指導(dǎo)AI+藝術(shù)設(shè)計的WebUI全流程使用教程

三. 背景知識

3.1 Stable Diffusion參數(shù)詳解

Sampling method: 采樣方法

Sampling steps:采樣迭代步數(shù)

Restore faces: 面容修復(fù)

Tiling: 生成平鋪紋理

Highres.fix: 高分辨率修復(fù)

Firstpass width: 一開始的低分辨率的寬

Firstpass height: 一開始的低分辨率的高

CFG scale: 數(shù)值越小,AI多樣性越多,越大限制越多

Seed: 種子數(shù)

Variation seed: 在原來種子數(shù)的基礎(chǔ)之上的子種子數(shù)

Denoising strength:跟原來圖片的差距大小

3.2 ControlNet 參數(shù)詳解

  1. 2D重繪
    Canny Edge
    HED Boundary
    M-LSD Lines
    Faske Scribbles

  2. 專業(yè)領(lǐng)域
    Depth Map
    Normal Map
    Semantic Segmentation
    Human Pose

四. 定制化技巧

4.1 參數(shù)技巧

深度真人LoRa模型訓練建議:
使用和LoRa一樣的底模(大模型); 最好使用和LoRa作者相同的參數(shù);正確設(shè)置loRa的權(quán)重(0.8~0.9, <1);提示詞中要加入觸發(fā)詞;LoRa不是越多越好。
1、訓練總數(shù):建議50張圖數(shù)據(jù)集深度訓練15000次左右,更大數(shù)據(jù)集可用Dadaptation優(yōu)化器測試最佳總步數(shù)。
2、訓練輪次:建議10/5次預(yù)設(shè),每個圖建議單輪訓練20~30次。
3、訓練分辨率:建議768x1024,根據(jù)電腦顯存調(diào)整。
4、訓練源模型:建議chilloutmix_NiPnjnedFp32Fix, 1.5模型。
5、Text Encoder learning rate (文本編碼器學習率):主要影響魯棒性、泛化性和擬合度,過低不利于更換特征。
6、Unet learning rate (Unet學習率):主要影響模型像與不像,影響lost率和擬合度,不擬合加大,過擬合減小。
7、文本編碼器學習率和Unet學習率的關(guān)系:沒有必然的1/5~1/10倍率關(guān)系、龐大數(shù)據(jù)集下Unet甚至可以低過Text。
8、Network Rank (Dimension”網(wǎng)絡(luò)大?。簭娀柧毤毠?jié),建議128?192,128以上增加提升相對不明顯。
9、Network Alpha (網(wǎng)絡(luò)Alpha):建議96以上,弱化訓練細節(jié),有正則化效果,可與Dim同步增加。
10、讓AI訓練AI:首發(fā)訓練采用Dadaptation,所有學習率均設(shè)為1。
1k手動訓練方法:建議用AadmW優(yōu)化器,可以通過調(diào)整學習率獲得很像與易用性的平衡。
12、lost率控制:不是越低越好,越低模型越擬合,但模型也越難更換特征,甚至會影響動作和表情。
13、Lion優(yōu)化器:不建議用在深度訓練中,太快擬合雖然能很像,但是造成泛用性差。
14、本地深度訓練方法:可以用遠程操作軟件監(jiān)控,訓練過程中發(fā)現(xiàn)學習率不合適遠程修改。

五. 參考來源

如何訓練一個非常像的真人Lora模型(深度探討)

[2023最新]LORA安裝和訓練指南

還搞不定lora訓練集嗎?干貨分享+打標講解文章來源地址http://www.zghlxwxcb.cn/news/detail-465194.html

到了這里,關(guān)于Stable Diffusion+ControlNet+Lora 指導(dǎo)AI+藝術(shù)設(shè)計的WebUI全流程使用教程的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 【AI繪畫】萬字長文——(超詳細)ControlNet的詳細介紹&使用Stable Diffusion的藝術(shù)二維碼完全生成攻略

    【AI繪畫】萬字長文——(超詳細)ControlNet的詳細介紹&使用Stable Diffusion的藝術(shù)二維碼完全生成攻略

    詳細介紹ControlNet的各個部分,相關(guān)案例,以及使用二維碼作為ControlNet模型的輸入的Stable Diffusion生成的圖像,使二維碼轉(zhuǎn)變?yōu)樗囆g(shù)圖像 Stable Diffusion :是StabilityAI于2022年8月22日發(fā)布的文本到圖像模型。它類似于OpenAI的DALL·E 2和Midjourney等其他圖像生成模型,但有一個很大的不同

    2024年02月05日
    瀏覽(34)
  • 這二維碼也太美了吧!利用AI繪畫[Stable Diffusion的 ControlNet]生成爆火的藝術(shù)風格二維碼

    這二維碼也太美了吧!利用AI繪畫[Stable Diffusion的 ControlNet]生成爆火的藝術(shù)風格二維碼

    先看兩張圖 上面的話是兩張有效的二維碼,只要你拿起手機掃描這些圖像,是可以掃出內(nèi)容的。是不是難以置信? 最近,在互聯(lián)網(wǎng)上瘋傳一種嶄新形式的二維碼,它們擺脫了傳統(tǒng)黑白方塊的外觀,而是呈現(xiàn)出令人賞心悅目的圖像,一眼望去令人印象深刻。 核心方案就是基于

    2024年02月10日
    瀏覽(21)
  • Stable Diffusion stable-diffusion-webui ControlNet Lora

    Stable Diffusion stable-diffusion-webui ControlNet Lora

    Stable Diffusion用來文字生成圖片,ControlNet就是用來控制構(gòu)圖的,LoRA就是用來控制風格的 。 國內(nèi)加速官網(wǎng): mirrors / AUTOMATIC1111 / stable-diffusion-webui · GitCode 安裝參考: Stable Diffusion安裝與常見錯誤(+Lora使用)2023年最新安裝教程_cycyc123的博客-CSDN博客 保姆級教程:從0到1搭建St

    2024年02月09日
    瀏覽(49)
  • 在stable diffusion中如何分辨lora、大模型、controlnet

    Stable Diffusion LoRA 是微軟的研究人員為了解決大語言模型 微調(diào) 而開發(fā)的一項技術(shù),它是一個多模態(tài)語言-圖像模型,LORA 可以學習將其語言表征遷移到圖像 modal 中從而獲得跨模態(tài)語義一致的表示。LoRA 模型是 Stable-Diffusion 中的一個插件,僅需要少量的數(shù)據(jù)就可以進行訓練的一種模

    2024年04月27日
    瀏覽(22)
  • 利用GPU加速自定義風格圖像生成-利用GPU加速結(jié)合了ControlNet/ Lora的Stable Diffusion XL

    利用GPU加速自定義風格圖像生成-利用GPU加速結(jié)合了ControlNet/ Lora的Stable Diffusion XL

    點擊鏈接完成注冊,參加本次在線研討會 https://www.nvidia.cn/webinars/sessions/?session_id=240124-31319 隨著AI技術(shù)的發(fā)展, 數(shù)字內(nèi)容創(chuàng)建業(yè)務(wù)也變得越來越火熱。生成式AI模型的發(fā)布, 讓我們看到了人工智能在各行各業(yè)的潛力。您只需要用語言簡單描述自己希望看到的畫面, AI便可以自動生

    2024年01月24日
    瀏覽(25)
  • stable diffusion AI精準繪圖——ControlNet控件的安裝與使用

    上兩期圖文教程,我們分享了stable diffusion webUI AI繪圖的安裝步驟,以及stable diffusion webUI 漢化插件的安裝,與相關(guān)stable diffusion webUI 的相關(guān)參數(shù)解析,本期我們就介紹一下controlNet 控件的安裝與使用。 首先說一下,stable diffusion webUI 相關(guān)的軟件已經(jīng)更新,安裝完成后,會提示p

    2024年02月02日
    瀏覽(25)
  • 最新版本 Stable Diffusion 開源 AI 繪畫工具之 ControlNet 篇

    ControlNet 就是控制網(wǎng),并不需要你多了解它的底層原理,簡單來說,在 ControlNet 出來前,你使用 stable diffusion 時生成圖片,就像開盲盒 在圖片生成出來前,你根本不知道圖片內(nèi)容究竟是怎樣的,而 ControlNet 就是對于出圖更精準的一種控制 隨著 ControlNet 的出現(xiàn),才真正意義上讓

    2024年02月08日
    瀏覽(34)
  • AI繪圖軟件Stable Diffusion 安裝和使用之二controlnet插件

    AI繪圖軟件Stable Diffusion 安裝和使用之二controlnet插件

    本期說一下Stable Diffusion非常有名的插件controlnet。同上一篇一樣,我們安裝b站大佬秋葉aaaki(有的網(wǎng)友戲稱他/她是賽博佛祖)的stable diffusion4.2整合包。解壓縮以后,打開啟動器,見下圖,界面比早期版本更好看了。 ?編輯? 啟動器打開以后,安裝controlnet插件 填寫網(wǎng)址:h

    2024年02月04日
    瀏覽(24)
  • Stable Diffusion 絲滑無閃爍AI動畫 Temporalkit+Ebsynth+Controlnet

    Stable Diffusion 絲滑無閃爍AI動畫 Temporalkit+Ebsynth+Controlnet

    早期的EbSynth制作的AI視頻閃爍能閃瞎人的雙眼,可以通過【temporalkit+ebsynth+controlnet】讓視頻變得絲滑不閃爍。 下載安裝 EbSynth官網(wǎng),這里需要輸入email地址。 下載壓縮包解壓縮到任意位置,這里我放到了 ebsynth_utility 下。 透明背景工具下載地址: https://pypi.org/project/transparen

    2024年02月16日
    瀏覽(19)
  • 新書速覽|AI創(chuàng)意繪畫與視頻制作:基于Stable Diffusion和ControlNet

    新書速覽|AI創(chuàng)意繪畫與視頻制作:基于Stable Diffusion和ControlNet

    帶你創(chuàng)作更高品質(zhì)的圖像與動畫,釋放無限創(chuàng)意,探密更前沿的AI繪畫技巧 本書內(nèi)容 《AI創(chuàng)意繪畫與視頻制作:基于Stable Diffusion和ControlNet》將帶領(lǐng)讀者探索AI繪畫和短視頻創(chuàng)作的奇妙世界。本書詳細介紹 Stable Diffusion的基本概念、原理及其主要功能 的使用,闡述如何使用提示

    2024年01月20日
    瀏覽(18)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包