大家好,用爺爺都能聽懂的方式分享可以落地實操的干貨
花了很長時間終于整理好了這份SD的使用教程!
從手把手安裝部署,到界面功能講解,再到實戰(zhàn)案例制作,到下載優(yōu)質(zhì)模型,每一步都有詳細教程
并且用一個又一個的例子展示,讓大家不止是枯燥地看,而是看完立刻也能做出一樣的圖片出來
同時,無論是安裝包,大模型,lora,關鍵詞的文件都給大家打包好了,不用再自己這找找那找找
希望能做到讓大家學SD,看這一篇就夠!
首先,小編整理了一份AI繪畫的入門資料包,包括Stable Diffusion和Midjourney的安裝包等等,wx掃描二v碼免費領取 【保證100%免費
】
正 文
一、為什么要學Stable Diffusion,它究竟有多強大?
1.Stable Diffusion能干嘛
我相信大家在刷視頻的時候,或多或少都已經(jīng)看到過很多AI繪畫生成的作品了
那SD到底可以用來干什么呢?
01.真人AI美女
我們最??吹降木褪沁@些真人AI美女的賬號
(我有一個朋友,每到晚上的時候,就很喜歡看這種視頻)
02.生成頭像、壁紙
以前很多人花錢去找別人定制自己獨一無二的頭像或者壁紙
現(xiàn)在SD就可以用來定制個人的二次元頭像、盲盒模型或定制壁紙
03.繪畫輔助
動漫圖畫、插畫等都可以用SD來輔助完成
比如線稿上色、或者是獲取圖畫的線稿等
Stable diffusion還有很多功能,比如恢復畫質(zhì)、室內(nèi)設計等
關于Stable Diffusion的實際變現(xiàn)方式和變現(xiàn)案例,之后我也會單獨寫文章來說噢!
2.Stable Diffusion是什么
簡單來說,Stable Diffusion(簡稱SD)就是一個AI自動生成圖片的軟件
通過我們輸入文字,SD就能生成對應的一張圖片,不再需要像以前一樣要把圖片“畫”出來,或者是“拍”出來
有的人說,我學習一個軟件之前是不是要先知道它的原理呢?
我的回答是:不需要!
下面這張圖就是我在網(wǎng)上保存的SD的原理圖
看得懂嗎?
看不懂,我也看不懂
影響使用嗎?
完全不影響!
很多人想學習stable diffusion,上網(wǎng)一搜,大多數(shù)教程都先告訴你SD的原理是什么
但偏偏就是這一步就勸退了很多人繼續(xù)學習
因為這看起來真的好像很復雜很難
但事實是:
大多數(shù)的我們只是要能夠熟練使用SD
而不是要深入研究它
我們還有自己的學習和工作
因此,我們的目的就是花更少的時間快速入門Stable Diffusion
當然了,如果你的時間比較充裕,去把SD的原理也了解了也是可以的
跟大家說這些是想告訴大家
學習SD真的非常簡單!!
這篇文章就會帶大家通過一個個案例,實際上手操作生成各種照片
我相信在你看完這篇文章并且自己去嘗試過之后
你就已經(jīng)可以快速上手stable diffusion了??!
接下來我們就正式開始去使用stable diffusion?。?/p>
二、三分鐘教你裝好Stable Diffusion
1.什么電腦能帶動SD,A卡和Mac系統(tǒng)也不慌
為了大家能夠更加順利的安裝和使用Stable Diffusion(簡稱“SD”)
在正式安裝之前希望大家先一起查看一下自己的電腦配置,
需要注意的是以下兩點:
01.電腦系統(tǒng)是Win10或者Win11
為了避免一些奇怪的兼容性問題,不要選擇更低版本的系統(tǒng)。
查看電腦系統(tǒng)的方法:
在桌面上找到“我的電腦”——鼠標右鍵點擊——點擊“屬性”——查看Windows規(guī)格
02.檢查電腦性能
這里是檢查自己的電腦配置能不能帶動SD(Stable Diffusion)
需要滿足3個要求:
- 電腦運行內(nèi)存8GB以上
- 是英偉達(俗稱N卡)的顯卡
- 顯卡內(nèi)存4GB以上
檢查方法:
①鼠標右擊桌面底部任務欄——點擊“任務管理器”
②查看電腦的運行內(nèi)存
在“性能”里面找到“內(nèi)存”,這里的內(nèi)存不是電腦的存儲內(nèi)存,而是運行內(nèi)存噢!
只要看圖中劃線的那一個參數(shù)就可以
8GB:那就說明你的電腦配置內(nèi)存是勉強達到標準的
16GB:那就說明你的內(nèi)存配置可以正常使用
32GB:那么你就可以非常自由的使用SD啦!
③查看“GPU”
GPU就是顯卡的意思
首先先看右上角顯卡的名字或者型號
必須確認的第一個是 NVIDIA ,代表的是英偉達的顯卡(俗稱N卡),這里是N卡我們才可以進行下一步,
如果這個地方是AMD或者是Intel,可能你的電腦會不太支持SD,網(wǎng)上的安裝教程也比較麻煩,
大家可以看第二部分,使用云平臺去玩SD
接著看到下面劃線的專用GPU內(nèi)存
4GB:說明電腦勉強可以跑動SD,出圖的時間會比較長
6GB:出一張圖的時間是20~50秒,SD的大部分功能都可以使用
8GB:5~20秒可以出一張圖,基本上SD的所有功能都對你開放
好啦,如果你的電腦滿足以上所說的配置,那么恭喜你!你可以順利的安裝Stable Diffusion并展開學習啦!
上面這些操作是我們用來查看Windows系統(tǒng)的
至于Mac系統(tǒng)可以看一下下面的視頻
按照視頻一鍵安裝就可以啦!非常簡單!
https://www.bilibili.com/video/BV1Kh4y1W7Vg/?spm_id_from=333.788&vd_source=6f836e2ab17b1bdb4fc5ea98f38df761
2.低配置電腦也能玩Stable Diffusion
(電腦配置過關的朋友們,直接看第3部分安裝)
剛剛查看了電腦配置,發(fā)現(xiàn)自己電腦可能帶不動SD的朋友們也不用擔心,
通過云平臺,我們一樣可以暢玩SD,做出好看的圖片
云平臺就相當于我們遠程控制別人配置更好的電腦,用別人電腦上的SD生成照片
這里用的是“青椒云”,如果大家還有什么更好用的平臺也可以分享出來噢!
點擊下面的鏈接就可以下載青椒云
http://account.qingjiaocloud.com/signup?inviteCode=R0JJ9CHY
云平臺使用方法:
①點擊上面鏈接,注冊賬號
②下載并安裝后,登錄剛剛注冊好的賬戶
③點擊右上角的個人中心進行實名認證
④在進行實名認證后回到主界面,點擊新增云桌面
想玩Stable Diffusion可以選“AIGC嘗鮮”,一般新注冊的會有優(yōu)惠券,可以免費試用
大家可以試試覺得好用再付費!
(大多數(shù)云平臺都是2~3元一個小時)
⑤在新彈出的框框中點擊“開機”按鈕,稍等一下之后,點擊“進入桌面”
進入桌面之后彈出的全部框框可以直接關掉
⑥點擊新打開桌面的“此電腦”,在C盤里面找到SD的根目錄,點擊“A啟動器.exe”
⑦點擊右下角的“一鍵啟動”就可以進入SD啦
⑧用完云平臺之后,記得關機噢,不然會持續(xù)計費
3.一鍵式安裝SD本地部署,解壓即用,小白的福音
電腦配置能支持SD運行的朋友們,接下來我會手把手教你安裝SD的本地部署
這里我們用到的是B站秋葉分享的整合包
小白直接下載整合包可以避免很多困難
整合包點開鏈接就能下載保存啦
鏈接:https://pan.baidu.com/s/1hY8CKbYRAj9RrFGmswdNiA?pwd=caru
提取碼:caru
具體安裝方法:
①打開上面的鏈接,下載《1.整合包安裝》,存放到電腦本地
②打開保存到電腦里的文件夾
③打開文件夾《1.秋葉整合包主包》——鼠標右擊文件——點擊“解壓文件”
④選擇解壓到D盤或者E盤,小心C盤被占滿??!點擊確定
⑤解壓完成后,來到第二個文件夾,雙擊里面的文件
點擊安裝
⑥打開剛剛解壓保存的SD的根目錄,找到啟動器
鼠標右擊啟動器——點擊“發(fā)送到”——桌面快捷方式
這樣下次進入就可以直接在桌面雙擊進入,不用每次都到文件夾里面找啦!
⑦雙擊啟動器,等待更新
接著點擊左邊第二個“高級選項”
在顯存優(yōu)化里,根據(jù)自己電腦的顯存選擇(就是上面查看的專用GPU內(nèi)存),自己電腦是多少就選多少
⑧回到第一個一鍵啟動,點擊右下角的一鍵啟動
出現(xiàn)這個代碼頁面不用管,等一下就行了!SD的主界面會自動在網(wǎng)頁上彈出來
如果在上面的頁面出現(xiàn)了報錯
可以回到最開始的界面
在左邊點擊“疑難解答”,再點擊右邊的“開始掃描”
最后點擊“修復”按鈕
下面這個頁面就是SD的主頁面,大家看到這樣一個復雜的頁面千萬不要慌
實際上有些功能在我們基礎使用中用不上
接下來我們就把常用功能配合上實際例子來講解
三、小白快速上手Stable Diffusion
1.用對模型,照片風格才對味兒
用stable diffusion可以把自己想象成一個畫家
在起筆畫畫之前,我們要先確定我們畫的是什么風格的畫,
是二次元動漫、三次元的現(xiàn)實照片、還是盲盒模型。
因此,在我們確定了我們照片風格之后
我們就要去切換大模型,不同的模型就代表著不同的照片風格。
也就是SD界面左上角的“Stable Diffusion模型”
假如現(xiàn)在我想生成一個真人AI小姐姐,就選用chilloutmix的大模型
那么問題來了,我們這些模型從哪來呢?下載的模型放在哪里呢?
在我分享給大家的鏈接里面,有部分比較常用的大模型
(后續(xù)還有比較好的模型也會分享給大家)
大家可以根據(jù)文件夾名稱找到需要的模型。
另外,這篇文章的第三部分會跟大家詳細介紹去哪里下載模型,模型存放的位置,所以一定要看到最后!
2.寫好關鍵詞,讓你事半功倍
選好大模型之后,我們就要考慮畫面上要有什么東西,不要出現(xiàn)什么東西
而這就是通過輸入關鍵詞來告訴SD
我們最后要生成什么樣的圖畫
01.正面關鍵詞
其實要生成一張照片,最重要的就是關鍵詞,
關鍵詞里寫的就是你希望照片里會出現(xiàn)的內(nèi)容
輸入的關鍵詞越準確,出來的照片就會越接近自己腦海里的畫面!
那怎么寫關鍵詞呢?
比如說我現(xiàn)在想要生成一個漂亮的小姐姐站在大街上
那我就可以寫成:1女孩,漂亮,站著,大街
或者是:1漂亮女孩,站在大街上
又或者我直接寫一個句子:1個漂亮女孩站在大街上
上面三種單詞、詞組、短句的方式都可以,
我們比較常用的就是直接輸入一個個單詞,然后這些單詞用英文狀態(tài)下的逗號隔開
當然了,SD只能識別英語,但我們也不用擔心,直接用翻譯就可以啦!
輸入到SD就是這樣的?
接著點擊右邊這個“生成”按鈕
這樣你在SD的第一張圖就出來啦!
hhh是不是很多小伙伴已經(jīng)按捺不住去試了試呢,出來的照片是不是有點不盡人意!
那是因為我們上面輸入的關鍵詞太過于簡略啦
這里是我上面這張圖輸入的關鍵詞
看到這一大串英文千萬別害怕!寫關鍵詞也是有模板的!
首先上面第一行的關鍵詞可以先不看
那是我們等一下要學到的lora模型
在寫跟我們照片有關的關鍵詞之前
我們可以先寫一些照片質(zhì)量的詞語,這樣出來的照片會更加精致
比如說我們可以寫:最高質(zhì)量,超高清畫質(zhì),大師的杰作,8k畫質(zhì)等等…
翻譯成對應的英文就是:Highest quality, ultra-high definition, masterpieces, 8k quality,
寫完質(zhì)量詞,接著就是我們照片的內(nèi)容
先寫的就是照片的主體,和對主體的細節(jié)描寫
比如我們是要生成一個女孩,就要寫出來一個女孩,以及這個女孩長什么樣也可以寫出來
也就是:一個女孩,非常精致的五官,極具細節(jié)的眼睛和嘴巴,長發(fā),卷發(fā),細膩的皮膚,大眼睛
翻譯成英文就是:1girl, very delicate features, very detailed eyes and mouth, long hair, curly hair, delicate skin, big eyes,
這些照片內(nèi)容大家都是可以隨意改的,但是像精致的五官、細節(jié)的眼睛這類詞語,大家可以都加上去
寫完五官之后,我們就可以想一下讓照片的人物穿什么衣服,褲子,或者加上帽子之類的配飾
像裙子、毛衣、牛仔褲、比基尼都可以,還可以寫上衣服的顏色
比如:白色的毛衣、項鏈(white sweater, necklace,)
最后我們就可以寫上其他亂七八糟的東西,比如背景、天氣、照片姿勢、構(gòu)圖等等
比如說:在街上,陽光,上半身照片(street, Sunshine, upper body photos,)
好啦,這樣一套下來,我們的關鍵詞就寫的差不多了
推薦大家像我這樣一行一行分開類型去寫關鍵詞,這樣后面想要改詞更好找
但一定要注意每一行的最后要加上英文逗號,否則它就會跟下一個單詞連起來變成一個新單詞
總結(jié)一下我們寫關鍵詞的公式:
畫質(zhì)+主體+主體細節(jié)+人物服裝+其他(背景、天氣、構(gòu)圖等)
好,現(xiàn)在我們新生成了一張照片,但是發(fā)現(xiàn)她并沒有我關鍵詞里的卷發(fā),
那我怎樣才能讓“卷發(fā)(curly hair)”引起Stable Diffusion的注意呢?
那就是給關鍵詞加權重,加權重的方法有兩種:
①直接用括號把關鍵詞括起來:(curly hair)
這樣括號一次就是1.1倍權重,那括兩次((curly hair))就是1.1×1.1=1.21倍,以此類推
注意:這里的括號也是英文狀態(tài)下的括號
可以加權重,那我們也可以減權重
減權重就是用"[]"把單詞括起來,如:[curly hair]
②(關鍵詞:數(shù)值):(curly hair:1.3)
這就是在第一種的基礎上加上數(shù)值,直接一個curly hair是1,大于1就是加權重,小于1就是減權重
02.負面關鍵詞
當我們生成照片次數(shù)多了之后,漸漸的發(fā)現(xiàn)偶爾生成出來的照片多了幾個手指,甚至會多了一只手
那怎么才能避免這些情況呢?
那就是告訴SD,我不要那樣的照片!
所以,我們就可以通過輸入負面關鍵詞告訴SD,我不希望照片會出現(xiàn)什么內(nèi)容
比如說我不希望照片出現(xiàn):低質(zhì)量,多余的手,多余的手指,不好看的臉等等…
這里就不用大家去想要寫些什么啦
新手小白可以直接抄!
(worst quality:2), (low quality:2), (normal quality:2), lowres, ((monochrome)), ((grayscale)), bad anatomy,DeepNegative, skin spots, acnes, skin blemishes,(fat:1.2),facing away, looking away,tilted head, lowres,bad anatomy,bad hands, missing fingers,extra digit, fewer digits,bad feet,poorly drawn hands,poorly drawn face,mutation,deformed,extra fingers,extra limbs,extra arms,extra legs,malformed limbs,fused fingers,too many fingers,long neck,cross-eyed,mutated hands,polar lowres,bad body,bad proportions,gross proportions,missing arms,missing legs,extra digit, extra arms, extra leg, extra foot,teethcroppe,signature, watermark, username,blurry,cropped,jpeg artifacts,text,error
當然你如果還有什么不想出現(xiàn)在照片上的東西,也可以自己加上去
到這里關鍵詞所有的內(nèi)容就講完啦!
分享的鏈接里還有常用的關鍵詞分類,
還不知道寫些什么的,大家可以去看看!
3.兩分鐘打造你的專屬模特
通過輸入關鍵詞,我們已經(jīng)能夠生成一張稍微好看一點的小姐姐的照片了,
但是現(xiàn)在我想要生成5678張照片,而且我要出來的照片都是同一張臉,這怎么辦呢?
這時候我們就要用到Lora模型
簡單來說,Lora可以固定我們照片的特征:人物特征、動作特征、還有照片風格
點擊“生成”下面的的第三個按鈕,就會彈出新的選項框
找到Lora,就會出現(xiàn)我們下載保存到電腦的Lora模型
點擊我們要用的Lora,就會自動添加到關鍵詞的文本框里面
前面那四張照片用到的就是這三個Lora,由此可見,我們的Lora是可以疊加使用的
但是建議新手不要使用太多l(xiāng)ora,
因為這樣照片出問題了,你也不知道是哪個Lora有問題
另外,Lora之間一樣用英文逗號隔開
每個Lora后面都有數(shù)字,這是用來調(diào)整這個Lora的權重的,
正常情況下是1,我們一般只會去降低權重,因為增加權重照片可能就會變得奇奇怪怪
每個Lora設置的權重不一樣,出來的照片就會不一樣
想要生成一個好看的小姐姐,就要多去嘗試不同的權重組合
現(xiàn)在問題又來了,我們怎么選擇Lora呢?
這個問題就要回歸到你最開始想要生成什么樣的照片
你想生成真人模特,你在最開始用了真人的大模型
對應的我們的Lora也要選用真人模特
這樣出來的照片效果才更好!
一些比較好看的Lora已經(jīng)打包好了放在文章的末尾
后續(xù)挖掘到更好看的Lora也會分享給大家!
大家可以通過添加不同的Lora,調(diào)整權重,
生成你獨一無二的小姐姐!
4.為什么你生成的圖就是跟別人不一樣
為什么有時候我們跟別人用的大模型、關鍵詞、Lora還有其他參數(shù)都一樣
可偏偏生成出來的圖就是不一樣?
那是因為影響照片的因素還有一個“隨機數(shù)種子(Seed)”
隨機數(shù)種子控制的是最底層的形狀,就相當于我們畫畫最開始的線稿
它會決定我們照片的基礎輪廓,相當于決定了我們照片人物的外形輪廓,包括姿勢和站位等
當隨機數(shù)為“-1”的時候,SD就會隨機給你的照片生成一個種子,這個種子就理解成不一樣的線稿就可以
怎么看自己照片用的seed值(隨機數(shù)種子)是什么呢?
在我們點擊生成的照片下面,有一大串英文,里面的seed值就是我們當前生成照片的seed值
只有當我們所有參數(shù),包括隨機數(shù)種子跟別人的照片都一樣時,我們才能生成跟別人差不多一樣的照片。
5.一分鐘生成自己的二次元造型
大家有沒有試過花二三十塊錢,把自己的照片發(fā)給別人,讓人家?guī)妥约荷梢粡埗卧嬶L的照片拿來當頭像
然后別人含淚血賺19.9,還有一毛錢是電費
今天看到這篇文章你就省錢啦!
Stable Diffusion不用一分鐘,不管你是要2.5D還是2D的照片,它都能生成!
這里我們用到的是圖生圖里面的功能
我們是要用自己的照片生成一張二次元的照片
一定要記得換大模型!!選一個能生成二次元照片的大模型就可以
至于正面關鍵詞呢
我們只要輸入照片質(zhì)量和主體的關鍵詞就可以
比如我這里輸入的就是:高質(zhì)量,高清畫質(zhì),大師杰作,極致的細節(jié),8k,主體就是一個女孩
負面關鍵詞我們就復制前面給大家的就可以啦
接著我們就在這個空白的地方點擊上傳自己需要生成的照片
接著鼠標往下移,找到“重繪幅度”
重繪幅度的意思就是你要改變你原來照片的程度
當你的重繪幅度拉到1,這時候就相當于要完全改變你的照片,生成出來的照片就跟原先的照片毫無關系了
這里如果大家是要生成二次元照片的,把重繪幅度拉到0.6~0.8就差不多了,
大家可以多試試幾個參數(shù)
這樣設置下來一分鐘都不用!就可以生成自己的二次元造型,大家就省下20塊錢啦!
6.隨便畫幾筆,你就是“神筆馬良”
很多人都有亂涂亂畫的習慣,但是大家會不會很好奇,我隨便畫的東西,AI會生成什么呢?
看看下面兩張圖,左邊的圖就是我在電腦上隨便畫的(畫的很丑)
但是在我告訴SD我畫的是什么之后,它直接就給我生成出來一張好看的圖,
這就讓我覺得我畫畫天賦很高了哈哈哈!!
這個就是SD圖生圖里的涂鴉功能,點擊空白的地方上傳一張純白的圖片,也就是你的畫紙
右邊的兩個小按鈕點開就可以調(diào)節(jié)畫筆的大小和顏色
接著就在畫紙上隨便畫畫
然后挑合適的大模型,想要什么畫風就挑什么模型
接著輸入關鍵詞
一樣的,先輸入一些關于照片質(zhì)量的詞
再告訴SD,你畫的是什么
比如說我畫的就是:河流,森林(river,forest)
最后我們把下面的重繪幅度拉到0.6~0.8,點擊生成就可以啦!
是不是非常簡單,自己隨便畫幾筆,就能生成出非常好看的照片了!
7.怎么給二次元老婆換衣服
假如我現(xiàn)在有一張非常好看的照片,唯獨我覺得她的衣服不好看,
那我要怎么在不改變其它地方的情況下,給她換上更好看的衣服呢?
這里用到的是圖生圖中局部重繪的功能,導入要調(diào)整的照片
點擊右邊的畫筆可以調(diào)整大小,把人物衣服部分全部涂黑
接著輸入關鍵詞,先輸入質(zhì)量詞(如:高質(zhì)量,高清畫質(zhì),8k等)
然后描寫一下你想要生成什么樣的衣服
比如我這里輸入的就是:粉色漢服,精致的裙子,極具細節(jié)的服裝
負面關鍵詞就直接復制我們前面用的
點擊生成就可以啦!
同樣的道理,我們還可以用這個功能來換臉,
只是我們涂黑的部分就變成了臉,輸入的關鍵詞就是描寫臉部、五官的單詞。
上面的方法用來換衣服只能整體去換,
如果我想指定衣服的顏色就只能在關鍵詞里面告訴SD要怎么調(diào)整
假如現(xiàn)在我想指定服裝的顏色,比如:藍色的衣袖,粉色的衣服,還要有黃色的花紋
這時候我們只靠關鍵詞是不行的,出來的照片也不一定準確
那我們就可以用到一個新的功能——“涂鴉重繪”
導入照片之后,在右邊調(diào)整畫筆大小和顏色,然后就可以自己設計衣服的顏色啦
關鍵詞就像前面說的那樣輸入就可以啦,
每次點擊生成都能出來不一樣的衣服
8.兩步拯救超糊照片
SD除了生成新的照片外,還可以用來修復我們比較糊的照片
出來的效果比大多數(shù)軟件都要好!
這個恢復畫質(zhì)的功能在SD里叫“后期處理”,點擊下面空白的地方上傳圖片
接著我們看到下面這個“Upscaler 1”,也就是放大器
修復二次元的照片就選“R-ESRGAN 4x+Anime68”
其他實物照片就選“R-ESRGAN 4x+”
其他放大器出來的效果都沒有這兩個好
最后點擊生成就可以!
這個功能還可以拿來修復真人的照片,但是上面說到的流程是不適用于真人照片的
比如說我們現(xiàn)在要修復這張表情包
我們先把照片導入到SD
這邊放大器選擇“無(None)”
再往下看到這個“GFPGAN強度”
這個是專門用來修復人臉的,把參數(shù)拉滿(1)就行
接著點擊“生成”
這樣我們的人臉就修復了,但是也只能修復臉的部分,除了臉其他的地方還是比較糊。
9.3秒教你獲取大佬的咒語
在網(wǎng)上經(jīng)常看到別的大佬的圖覺得很好看,想要復制卻復制不出來
但其實SD里面就有這樣一個功能
把照片導進去,它就能識別出來這張照片用到的咒語或者關鍵詞
第一個就是“PNG圖片信息”
把照片導進去,右邊就會自動彈出照片的信息,包括正面關鍵詞、負面關鍵詞,還有其他種子、大模型等信息
我們可以復制這一大串信息,來到“文生圖”的頁面,把全部信息粘貼到關鍵詞的文本框中
然后點擊“生成”按鈕下面的第一個小按鈕,SD就會自動幫你把信息分配到合適的地方,用上一樣的效果和模型
這時候點擊生成,就能得到一張差不多一樣的照片(前提是有一樣的大模型和Lora)
有時候我們把照片導入進去之后,發(fā)現(xiàn)右邊并沒有照片生成的信息
那就說明這張照片不是直接從SD下載下來的PNG格式的照片
那我們就沒法用這個功能
但是我們可以用后面這個“標簽器(Tagger)”
它可以幫助我們生成照片的關鍵詞
比如說我們現(xiàn)在導入一張照片,右邊就會出來這張照片的關鍵詞
anya (spy x family), 1girl, solo, school uniform, eden academy school uniform, pink hair, green eyes, female child, looking at viewer, open mouth, ahoge, meme, salute, child, parody, upper body, black dress
阿尼亞(間諜 x 家庭) ,1個女孩,獨唱,校服,伊甸園學院校服,粉色頭發(fā),綠色眼睛,女孩,看觀眾,張嘴,阿霍格,迷因,敬禮,孩子,模仿,上身,黑色禮服
可以看到這樣出來的關鍵詞還是非常準確的,
通過這兩種方法,我們就可以獲取到好看的照片的重要信息!
10.一招讓你自由指定女神的姿勢
現(xiàn)在我們已經(jīng)能夠生成美女的照片了
可以定制出獨一無二的臉,換上更好看的衣服
但是我們怎么才能讓照片的小姐姐擺出指定的姿勢呢?
通過關鍵詞去描繪動作,可是出來的照片又不太準確
通過圖生圖去生成,可是人臉又變了
那我們就可以用到這個“ControlNet”功能,翻譯成中文就是控制網(wǎng)絡
簡單來說就是可以用它控制照片的線條,比如人物的動作、建筑物的線條等
比如,我現(xiàn)在想讓左邊照片的小姐姐擺出右邊小姐姐的姿勢,得到最右邊的一張照片
首先,大模型和關鍵詞我們還是正常的填寫
生成一張我們我們想要的小姐姐的照片
接著鼠標滑到最下面,點擊“ControlNet”
①點擊空白的地方,上傳我們需要指定的姿勢的照片
②點擊“啟用”
③在“預處理器”和“模型”里選擇“openpose”,這就是用來讓計算機識別人物姿勢的
下一步就點擊這個“預覽預處理結(jié)果”
接著原來照片的右邊就會出現(xiàn)人物姿勢的線條,最后點擊生成照片
這樣我們一張指定姿勢的美女小姐姐就生成啦!
11.插畫師的福音,線稿秒上色
隨著AI繪畫越來越火,很多人都會說將來可能很多畫師的職業(yè)都受到威脅了
但是,會用AI繪畫的畫師一定會比那些不會AI繪畫的畫師更有優(yōu)勢
當別人為了給線稿上色,花了一天的時間
而你一分鐘不到就出了一張質(zhì)量不錯的圖
單是工作效率上就領先別人很多了
下面這張就是我在網(wǎng)上隨便找的一張線稿圖,通過SD上色出來的一張照片
這也是通過使用“ControlNet”這個功能生成的
首先,我們點開"ControlNet"的狀態(tài)欄
①在空白的地方上傳自己的線稿圖
②點擊“啟用”
③點擊“反轉(zhuǎn)輸出顏色”
④在模型里面選擇“canny”的模型
接著去設置我們前面的內(nèi)容
①選擇合適的大模型
我想要生成二次元的圖,就要選擇相應的模型
②關鍵詞
跟我們寫關鍵詞一樣,先寫照片質(zhì)量的關鍵詞(比如:最高質(zhì)量,大師杰作等)
接著我們就可以指定上什么顏色了
比如我輸入的就是:1可愛女孩,五官精致,精致眼睛和嘴巴,銀色長發(fā),白皙的皮膚,水汪汪的大眼睛,
最后還加上一個簡單的背景
想要色彩更加細節(jié),就可以通過輸入更多的關鍵詞來控制照片
負面關鍵詞只要復制前面的就可以
就這樣不管再復雜的線稿,在SD里面都可以很快速的上好顏色
12.小白也能進行室內(nèi)設計
“ControlNet”還有一個非常好用的功能,
那就是進行室內(nèi)設計
比如說我現(xiàn)在想對房間進行重新裝修
我想看看我的房子弄成不同的風格是怎樣的
首先先點開“ControlNet”的狀態(tài)欄
①上傳需要進行設計的房間照片
②點擊“啟用”
③預處理器和模型都選“msld”,這是用來計算房屋線條的
接著切換一個現(xiàn)實照片的大模型
關鍵詞先輸入照片質(zhì)量關鍵詞
然后就是輸入照片的主體:一個客廳
最后點擊生成
這樣出來的照片既保留了原來房子的構(gòu)造,又可以看到新的房屋風格!
四、Stable diffusion知識補充
這一節(jié)是SD剩余功能的一些補充知識,大家不用擔心SD功能太多太復雜,
這一節(jié)大多數(shù)功能的參數(shù)只要照抄就行!
1.VAE
**
**
作為新手小白,我們沒必要知道它的基礎工作原理
只要知道VAE的作用就是加濾鏡和微調(diào)照片
下面圖片就是沒加VAE和加了VAE的區(qū)別
沒加VAE的照片是灰蒙蒙的
但在一般情況下,如果我們對照片的色彩沒有特別要求的時候,只選定一個VAE來使用就可以。
下面這個就是我比較常用的VAE
2.迭代步數(shù)
簡單的說,我們把在SD生成圖片的過程當作在畫畫
迭代步數(shù)的意思就是我們在這幅畫上畫多少筆
一般我們把參數(shù)設置在20~30之間
看下面的圖,20步以下的圖質(zhì)量都不高
但不是說步數(shù)越多越好
超過30步部分電腦可能就帶不動,無法生成照片了
所以,電腦配置稍微低一點的就設置在20~25
電腦配置比較好的就可以設置在25~30之間
**
**
3.采樣方法
采用方法的不同就相當于我們畫畫的方式不一樣
那這么多采用方法怎么選呢?
首先,我們看到別人好看的照片,可以看看人家用的是哪一個采用方法
如果實在不知道用哪一個,這里也給大家測試過了,
用下面框出來的幾個,出來的照片質(zhì)量比較高,而且出圖速度也比較快
4.面部修復+高分辨率修復
這兩個功能沒什么好講的,大家直接抄作業(yè)就可以!
面部修復:用在生成真人照片上
高分辨率修復:電腦配置好就可以用;電腦配置稍微差點的別開,否則照片無法生成
5.圖片分辨率(圖片大?。?/h3>
這里的寬度和高度就是用來調(diào)節(jié)照片大小的
一般情況下:
生成正方形的照片:寬度512*高度512
生成長方形的照片:寬度512*高度768
電腦配置稍微差點的朋友們,千萬別看網(wǎng)上設置成什么1024、2048,我們電腦跑不動噠!
6.生成多圖
通過調(diào)整下面這兩個參數(shù),可以讓我們一次生成多個圖
假如我們把兩個參數(shù)都設置成2
總批次數(shù)的意思就是生成兩批
單批數(shù)量的意思就是一批生成兩張照片
所以一共就會生成4張照片
在我們?nèi)粘J褂眯枰啥鄰堈掌?/p>
我們只調(diào)整“總批次數(shù)”就可以啦,這意味著我們照片是一張一張生成的
單批數(shù)量就意味著同時生成多張照片,這對我們的顯卡是有一定要求的,所以這個不要用??!
7.用腳本進行照片對比
我們生成一張照片會輸入很多的關鍵詞,
那我們怎么才能看到輸入不同的關鍵詞,
出來的照片有什么區(qū)別
或者加某個關鍵詞和不加的區(qū)別呢?
那我們就要用到最下面“腳本”里的“提示詞矩陣”,直接點擊就可以
接著來到關鍵詞的文本框
我們前面一直說在寫關鍵詞之前,先寫照片的質(zhì)量詞
那我們就以這張照片為例子,
看看加上最高質(zhì)量(the best quality)和不加有什么區(qū)別
書寫的格式:把需要進行對比的關鍵詞放在最后,用“|”把關鍵詞和前面的關鍵詞分隔開
也就是:關鍵詞|需要對比的關鍵詞
點擊生成就會出現(xiàn)兩張拼在一起的照片,
我們就可以看到加了“最高質(zhì)量(the best quality)”的照片會更加清晰
那如果現(xiàn)在想要比較不同的采用方法下,迭代步數(shù)不一樣,生成的照片有什么區(qū)別,該怎么操作呢?
這里用到的就是腳本里的“X/Y/Z圖表”
在X軸類型里面選擇“迭代步數(shù)”,右邊的X軸值就輸入需要進行比較的步數(shù)
在Y軸類型里面選擇“采用器”,接著點擊最右邊的筆記本圖標
那樣所有采樣器的名稱都會出現(xiàn)在框框里面,可以自己進行刪減
我們這里就選三個比較常用的采樣器
這邊X軸和Y軸的信息是可以全部換過來寫的,看個人習慣
點擊“生成”
就會生成這么一張大圖
我們就可以看到在不同的采用方法下,迭代步數(shù)為25的時候,生成出來的照片都差不多
這樣比較下來,我們就可以選擇自己更喜歡的采樣方法和迭代步數(shù)
五、大神的模型從哪來
1.模型在哪下載
除了鏈接里面給大家分享的模型,大家肯定還想去找更多更好看的模型
而大多數(shù)的模型都是在Civitai(C站)這個網(wǎng)站里面https://civitai.com/
現(xiàn)在就給大家說一下C站的使用方法:
01.科學上網(wǎng)
**
**
這個沒法教,大家只能自己想辦法了
02.點擊右上角的篩選按鈕,在框框里面找到自己需要的模型類型
Checkpoint=大模型
LoRA=Lora
常用的就是這兩個
03.看照片,看到感興趣的就點進去
點擊右邊的“Download”,也就是下載,保存到電腦本地,
文件保存到哪里在這一節(jié)的第二部分
另外,我們還可以點擊左上角的“Images”
這里就是看別人已經(jīng)做好的圖片,找到喜歡的點進去
點進去之后的頁面我們就可以看到這張圖的全部信息,
直接點擊Lora和大模型,可以直接跳轉(zhuǎn)到下載頁面
下面的就是照片關鍵詞和其他信息
點擊最下面的“Copy…Data”就可以復制圖片的所有信息
回到SD,粘貼到關鍵詞的文本框,點擊右邊的按鈕
這些信息就會自動分配
要注意的就是,大模型是需要我們手動去換的!
這樣我們就可以生成出跟大神幾乎一樣的照片了?。娔X網(wǎng)絡配置的不同,出來的照片有細微差別)
2.模型下載到哪里
這里大家就直接看我文件的保存地址,找到自己電腦里的
01.大模型
**
**
這里的SD根目錄就是大家在下載時,存放SD的那個文件夾
02.Lora
03.VAE
3.如何分辨模型
如果我們下載了一個模型,但不知道它是哪個類型的,不知道要放到哪個文件夾
我們就可以用到這個秋葉的模型解析工具 https://spell.novelai.dev/
把模型拖動到空白處
接著就會自動彈出模型的信息
在模型種類里面就可以看到是什么模型啦!
文章來源:http://www.zghlxwxcb.cn/news/detail-797146.html
資料分享
小編整理了一份AI繪畫的入門資料包,包括Stable Diffusion和Midjourney的安裝包等等,wx掃描二v碼免費領取 【保證100%免費
】文章來源地址http://www.zghlxwxcb.cn/news/detail-797146.html
到了這里,關于耗時80小時!超詳細的胎教級Stable Diffusion使用教程,看這一篇就夠!的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!