controlNet模塊使用
-
Enable選項啟用,使用Openpose Edito中姿勢生成需要將Openpose Editor指定為none狀態(tài)。
- 上面骨骼圖是通過Openpose Editor調(diào)整姿勢然后send to txt2img到這里的,使用Openpose Edito中姿勢生成需要將Openpose Editor指定為none狀態(tài)。
Preprocessor選項:
Canny edge — 黑色背景上帶有白色邊緣的單色圖像。 將圖片變成線稿。
Depth/Shallow areas — 灰度圖像,黑色代表深區(qū)域,白色代表淺區(qū)域。
Normal map — 法線貼圖圖像。
Semantic segmentation map——ADE20K 的分割圖像。
HED edge — 黑色背景上帶有白色軟邊緣的單色圖像。
Scribbles — 黑色背景上帶有白色輪廓的手繪單色涂鴉圖像。
OpenPose (姿勢關(guān)鍵點)— OpenPose 骨骼圖像。
M-LSD — 僅由黑色背景上的白色直線組成的單色圖像
Preprocessor部分選項使用教程
官方教程鏈接:Control human pose in Stable Diffusion Stable Diffusion Art (stable-diffusion-art.com)
1. canny圖像生成線稿
先加載對應(yīng)的模塊嗎,然后點擊生成。
2. hed輪廓生成圖像,跟上面操作一樣只需要更換對應(yīng)的Preprocessor選項和model為hed,也需要根據(jù)添加描述來生成
3.scribble涂鴉生成
以上推圖片生成的風(fēng)格內(nèi)容都是需要根據(jù)底層模型來獲取內(nèi)容。跟換底層模型在
圖生圖img2img
對于生成出來的圖片局部不滿意可以進行局部重繪,涂黑需要修改的地方,不滿意就send to inpaint在修改好一點的基礎(chǔ)上繼續(xù)修改,一直到滿意為止
協(xié)同創(chuàng)作,根據(jù)你的手繪和提示詞然后圖生圖生成不同內(nèi)容
使用技巧
tag提示詞:
線稿:((line art, white and black))
漫畫風(fēng):((monochrome, screentone))
生成原則
- 一般原則:
一般來說越靠前的詞匯權(quán)重就會越高,所以多數(shù)情況下的提示詞格式是:質(zhì)量詞,媒介詞,主體,主體描述,背景,背景描述,藝術(shù)風(fēng)格和作者 - 權(quán)重調(diào)節(jié): 最直接的權(quán)重調(diào)節(jié)就是調(diào)整詞語順序,越靠前權(quán)重越大,越靠后權(quán)重越低,可以通過下面的語法來對關(guān)鍵詞設(shè)置權(quán)重,一般權(quán)重設(shè)置在0.5~2之間,可以通過選中詞匯,按ctrl+↑↓來快速調(diào)節(jié)權(quán)重,每次步進為0.1,(best quality:1.3)
- 詞條組合:
幾個詞用括號合起來并不會讓ai把他們視為一體,即使打上權(quán)重也不行,比如以下兩者實際上是完全等價的
○ (car, rockt, gun:1.3)
○ (car:1.3), (rocket:1.3), (gun:1.3)
詞條組合的方式和自然語言差不多,要使用介詞,比如and,with,of 等等,比如(car with guns and rockets)
采樣方法
采樣方法有很多,但是目前常用的基本只有幾種:
- Euler a:速度最快的采樣方式,對采樣步數(shù)要求很低,同時隨著采樣步數(shù)增加并不會增加細節(jié),會在采樣步數(shù)增加到一定步數(shù)時構(gòu)圖突變,所以不要在高步數(shù)情景下使用
- DPM++2S a Karras 和 DPM++ SDE Karras:這兩個差不太多,似乎SDE的更好,總之主要特點是相對于Euler a來說,同等分辨率下細節(jié)會更多,比如可以在小圖下塞進全身,代價是采樣速度更慢
- DDIM: 很少會用到,但是如果想嘗試超高步數(shù)可以使用,隨著步數(shù)增加可以疊加細節(jié)
采樣步數(shù)
一般來說大部分時候采樣部署只需要保持在20~30之間即可,更低的采樣部署可能會導(dǎo)致圖片沒有計算完全,更高的采樣步數(shù)的細節(jié)收益也并不高,只有非常微弱的證據(jù)表明高步數(shù)可以小概率修復(fù)肢體錯誤,所以只有想要出一張窮盡細節(jié)可能的圖的時候才會使用更高的步數(shù)
輸出大小
大致的輸出大小和內(nèi)容關(guān)系參考:
? 約30w像素,如512512,大頭照和半身為主
? 約60w像素,如768768,單人全身為主,站立或躺坐都有
? 越100w像素,如1024*1024,單人和兩三人全身,站立為主
? 更高像素,群像,或者直接畫面崩壞
提示詞相關(guān)性(CFG)
CFG很難去用語言去描述具體的作用,很籠統(tǒng)的來說,就是給你所有的正面和反面提示詞都加上一個系數(shù),所以一般CFG越低,畫面越素,細節(jié)相對較少,CFG越高,畫面越膩,細節(jié)相對較多
? 二次元風(fēng)格CFG可以調(diào)的高一些以獲得更豐富的色彩和質(zhì)感表達,一般在712,也可以嘗試1220
? 寫實風(fēng)格CFG大都很低,一般在4~7,寫實模型對CFG很敏感,稍微調(diào)多一點可能就會古神降臨,可以以0.5為步進來細微調(diào)節(jié)
隨機種子
? 點擊篩子按鈕可以將隨機種子設(shè)為-1,也就是隨機
? 點擊回收按鈕可以將隨機種子設(shè)為右邊圖片欄里正在看的那張圖片的隨機種子
面部修復(fù)
面部修復(fù)在早期模型生成的的寫實圖片分辨率不高的時候有一定價值,可以在低分辨率下糾正錯誤的寫實人臉,但是現(xiàn)在的模型的臉部精度已經(jīng)遠超早期模型,而面部修復(fù)功能會改變臉部樣貌,所以只要無視這個功能就好
VAE設(shè)置
VAE的作用是修正最終輸出的圖片色彩,如果不加載VAE可能會出現(xiàn)圖片特別灰的情況,設(shè)置位置:
? 設(shè)置-StabelDiffusion-模型的VAE
設(shè)置之后記得點擊上方的保存設(shè)置,VAE是通用的,可以和任何模型組合
解決方案
修復(fù)手部姿勢
tag提示詞網(wǎng)站
https://aitag.top/
https://tags.novelai.dev/
https://www.wujieai.com/tag-generator
教學(xué)文檔
https://stable-diffusion-art.com/automatic1111
模型庫文章來源:http://www.zghlxwxcb.cn/news/detail-430521.html
模型下載:
https://civitai.com/
https://huggingface.co/lora-library文章來源地址http://www.zghlxwxcb.cn/news/detail-430521.html
到了這里,關(guān)于stable diffusion使用簡明教程的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!