「 無套路!文末提供下載方式 」
2024年繪畫圈最火的軟件
那妥妥的就Stable Diffution
V4升級版無需安裝,直接解壓就能用
(在此要感謝秋葉aaaki大佬的分享!)**
比之前版本的更加智能、高效和易操作
V4加強版小白也能輕易上手!
1.軟件背景信息
▍Stable Diffusion 是什么?
Stable Diffusion(簡稱SD)是一種生成式人工智能,于2022年發(fā)布,主要用于根據(jù)文本描述生成詳細圖像,也可用于其他任務,如圖像的修補、擴展和通過文本提示指導圖像到圖像的轉(zhuǎn)換。除圖像外,您還可以使用該模型創(chuàng)建視頻和動畫。
這是AI繪畫第一次能在可以在消費級顯卡上運行,任何人都可以下載模型并生成自己的圖像。另外,SD高質(zhì)量的成圖以及強大的自由度(自定義、個性化)受到諸多網(wǎng)友的追捧。Stable
Diffusion XL 1.0 (SDXL 1.0) 是Stable Diffusion的一個更為高級和優(yōu)化的版本,它在模型規(guī)模、圖像質(zhì)量、語言理解和模型架構(gòu)等方面都有顯著的改進。
▍Stable Diffusion 能做什么?
首先,大家在入坑SD前,務必要清楚現(xiàn)階段的SD到底能做什么?能否滿足自己的需求?
Stable Diffusion 功能包括文本轉(zhuǎn)圖像、圖像轉(zhuǎn)圖像、圖形插圖、圖像編輯和視頻創(chuàng)作。
-
**文本轉(zhuǎn)圖像生成:**最常見和最基礎的功能。Stable Diffusion 會根據(jù)文本提示生成圖像。
-
圖像轉(zhuǎn)圖像生成使用輸入圖像和文本提示,您可以根據(jù)輸入圖像創(chuàng)建新圖像。典型的案例是使用草圖和合適的提示。
-
創(chuàng)作圖形、插圖和徽標使用一系列提示,可以創(chuàng)建各種風格的插圖、圖形和徽標。
-
圖像編輯和修正可以使用 Stable Diffusion 來編輯和修正照片。例如,可以修復舊照片、移除圖片中的對象、更改主體特征以及向圖片添加新元素。
-
視頻創(chuàng)作使用 GitHub 中的 Deforum 等功能,可以借助 Stable Diffusion 創(chuàng)作短視頻片段和動畫。另一種應用是為電影添加不同的風格。 還可以通過營造運動印象(例如流水)來為照片制作動畫。
2.安裝和部署Stable Diffusion
介紹如何安裝和部署Stable Diffusion。我使用的是秋葉aaaki的整合包,文章末尾提供180G整合包~????
電腦系統(tǒng):Windows10及以上/macOS Monterey (12.5)。
顯卡:RTX3060及以上。
顯存:8G及以上。
內(nèi)存:16G及以上。
磁盤空間:500 SSD及以上
▍ 操作步驟
步驟一:右鍵解壓Stable Diffusion安裝包。
步驟二:雙擊Stable Diffusion安裝包進入文件夾中,解壓sd-webui-aki-v4.2。
步驟三:雙擊啟動器運行依賴-dotnet-6.0.11,安裝所需依賴。
步驟四:雙擊sd-webui-aki-v4.xx進入該文件夾中,下拉找到A啟動器并啟動。
注:第一次啟動,需要一些時間部署Python和Git環(huán)境,請耐心等待,后面啟動就很快了。若未彈出WebUI界面,請將復制鏈接:http://127.0.0.1:7860 到瀏覽器中即可。
若彈出Stable Diffusion WebUI界面,則表示啟動成功。
3.Stable Diffusion教程與模型
▍Stable Diffusion WebUI 介紹
1. Stable Diffusion WebUI界面主要分為三個區(qū)域:模型選擇區(qū)、功能選擇區(qū)、參數(shù)配置區(qū)。
2. 里面的參數(shù)非常多,第一次看到定會眼花繚亂,我對此進行了一次歸類分組,這些參數(shù)主要分為兩類:
一是為了告訴AI,用戶的需求是什么,進而完成作圖任務,稱為基礎參數(shù)。如提示詞框、模型選擇,迭代步數(shù),采樣器,圖片尺寸等。
二是為了高效率地完成這個任務而存在的參數(shù),稱為額外參數(shù),是非必要的參數(shù)。如垃圾桶,一鍵清除提示詞、文件夾、打包下載、預設樣式等。
那么,現(xiàn)在我們在看到某個參數(shù)時就知道它大致的作用是什么了。
Stable Diffusion 布局/參數(shù)介紹
接下來我將依次介紹Stable Diffusion文生圖功能中的參數(shù),指導用戶快速了解和使用這些參數(shù),以便更好地出圖。
注:1. 這里的參數(shù)介紹只起到指導性作用,若想進一步了解各個參數(shù)的細節(jié)和原理,請閱讀后續(xù)的文章。2. 由于這是整合包相比較原生的Stable Diffusion安裝包,功能較多,且已經(jīng)漢化了。
模型選擇區(qū)
1. Stable Diffusion模型:下拉選擇大模型,默認anyting-V5模型。請根據(jù)自身需求選擇不同類型的模型,如現(xiàn)實主義風格的模型;動漫,二次元風格的模型。
2. 外掛VAE模型:下拉選擇VAE模型,默認無。是可選操作,可以選擇不同效果的VAE模型,對成圖細節(jié)或顏色進行修復,同時選擇VAE也可以起到節(jié)省電腦算力的作用。
3. CLIP終止層數(shù)(Clip Skip):滑動確認或輸入層數(shù),層數(shù)范圍為1~12層,默認層數(shù)為2。1層,成圖更加精確;2層,成圖更加平衡,即AI遵循提示詞,也有一定自己的創(chuàng)意;3-12層,成圖更加有創(chuàng)意。這里推薦2層。若你希望AI更加有自己的創(chuàng)意,還是請調(diào)節(jié)提示詞引導系數(shù)(CFG Scale)參數(shù),效果會更好。
注:選擇模型時,需要提前下載模型并存儲到對應的路徑中。模型下載可前往:huggingface網(wǎng)站或Civital網(wǎng)站。Stable Diffusion模型存儲位置是:
*\models\Stable-diffusion
。VAE模型存儲位置是:*\models\VAE
。存儲完后,點擊“??”即可。
功能配置區(qū)
參數(shù)配置區(qū)
簡單介紹各個參數(shù)信息,分為基礎參數(shù)、額外參數(shù)以及老版本的參數(shù)。
基礎參數(shù)
1. 正向提示詞(Prompt):輸入你希望圖片中出現(xiàn)什么內(nèi)容。僅支持英文輸入。
2. 反向提示詞(Negative prompt):輸入你不希望圖片中出現(xiàn)什么內(nèi)容,比如多手指。僅支持英文輸入。
3. 迭代步數(shù)(Sampling Steps):設置圖片去噪的步數(shù),步數(shù)越多畫面越精細,出圖時間也越長。步數(shù)范圍1~150步,1~19步更加模糊,粗糙;20~40步,更加平衡;40~150步更加精細。其中并不是步數(shù)越多越好,為了避免過猶不及,這里推薦20~40步,更加平衡。
4. 采樣方法(Sampler Method):點擊勾選采樣方法。不同的采樣方法,有不同效果,這里大家多次嘗試即可。
5. 高分辨率修復(Hires. fix):勾選即可將圖片的分辨率放大。如從512_512px到1024_1024。
請根據(jù)自身顯卡性能,設置圖片基礎分辨率,請勿設置的過高,否則在勾選高分辨率修復后,會顯示:Out Of Memory Error,爆顯存了。
6. Refiner:待補充。
7. 尺寸(寬度、高度):設置成圖的尺寸。默認512_512px。推薦的尺寸有:512_768px、768_512px、768_1152。
8. 總批次數(shù):指一次生成圖片多少張,這里指陸續(xù)跑圖。根據(jù)顯卡性能,酌情設置,推薦1~4。
9. 單批數(shù)量:指一次同時生成幾張圖片,這里指同時跑圖。顯卡壓力更大,不建議設置為2以上。
10. 提示詞引導系數(shù)(CFG Scale):AI遵循提示詞的程度/成圖與提示詞相關度。數(shù)值越低更加精確,越高則更有創(chuàng)造力,這里推薦5~7更加平衡。
注:該參數(shù)類似于New Bing對話框中的選擇對話樣式,分為更有創(chuàng)造力、更平衡、更精確。提示詞引導系數(shù)(CFG Scale)則是以具體的數(shù)值來供用戶設置。
11. 隨機種子數(shù)(Seed):設置成圖是否隨機。文本框默認-1,表示隨機產(chǎn)生不同的圖片。點擊“??”將隨機種子設置為-1;點擊“??”將成圖的種子數(shù)(即唯一編碼),設置為隨機種子數(shù),在其他參數(shù)不變的情況下生成的圖片相似99%;點擊“??”則是進行更多設置。
12. 腳本(Script):一鍵測試提示詞或各個參數(shù)變化對成圖的影響。選項默認無,分為提示詞矩陣、從文本框或文件載入提示詞、X/Y/Z圖表、controlnet m2m。
關于模型(和諧部分,請自行查閱)
我們現(xiàn)在可以在很多的模型網(wǎng)站,比如c站、huggingface,也就是抱臉網(wǎng),上找到很多的訓練好的stable diffusion 模型。比如我現(xiàn)在已經(jīng)用過的Linaqruf/animagine-xl 和 xiaolxl/GuoFeng3模型。
Linaqruf/animagine-xl 是一個可以生成優(yōu)質(zhì)動漫風格圖像的SD模型。我們只需要輸入設計好的提示詞,Linaqruf/animagine-xl 就可以自動生成相應的動漫圖片了。下面是通過 Linaqruf/animagine-xl 生成的卡通圖片:
xiaolxl/GuoFeng3 是一個中國華麗古風風格模型,也可以說是一個古風游戲角色模型,具有2.5D的質(zhì)感。相比于前幾代,第三代大幅度減少上手難度,增加了場景元素與男性古風人物,除此之外為了模型能更好地適應其它TAG,還增加了其它風格的元素。
相比于前幾代,這一代對臉和手的崩壞有一定的修復,同時素材大小也提高到了最長邊1024。效果圖如下:
Stable Diffusion
180G
秋葉aaaki整合包+教程??????
下載整合包后,點擊里面的啟動器,點擊啟動界面的一鍵啟動,啟動器會自動啟動Stable Diffusion Web UI,并打開瀏覽器
打開后的Stable Diffusion Web UI界面。
使用的時候,輸入正面提示詞和反面提示詞(非必須),其他的選項使用默認的就行,然后點擊 生成,稍微等待一會,就可以得到生成的圖片了。
Stable Diffusion Web UI 界面原本是英文的,我們只需要在其啟動器的高級設置中啟用云端頁面漢化設置,就可以完成Stable Diffusion Web UI 漢化。
寫在最后
感興趣的小伙伴,贈送全套AIGC學習資料,包含AI繪畫、AI人工智能等前沿科技教程和軟件工具,具體看這里。
AIGC技術的未來發(fā)展前景廣闊,隨著人工智能技術的不斷發(fā)展,AIGC技術也將不斷提高。未來,AIGC技術將在游戲和計算領域得到更廣泛的應用,使游戲和計算系統(tǒng)具有更高效、更智能、更靈活的特性。同時,AIGC技術也將與人工智能技術緊密結(jié)合,在更多的領域得到廣泛應用,對程序員來說影響至關重要。未來,AIGC技術將繼續(xù)得到提高,同時也將與人工智能技術緊密結(jié)合,在更多的領域得到廣泛應用。
?
一、AIGC所有方向的學習路線
AIGC所有方向的技術點做的整理,形成各個領域的知識點匯總,它的用處就在于,你可以按照下面的知識點去找對應的學習資源,保證自己學得較為全面。
二、AIGC必備工具
工具都幫大家整理好了,安裝就可直接上手!
三、最新AIGC學習筆記
當我學到一定基礎,有自己的理解能力的時候,會去閱讀一些前輩整理的書籍或者手寫的筆記資料,這些筆記詳細記載了他們對一些技術點的理解,這些理解是比較獨到,可以學到不一樣的思路。
四、AIGC視頻教程合集
觀看全面零基礎學習視頻,看視頻學習是最快捷也是最有效果的方式,跟著視頻中老師的思路,從基礎到深入,還是很容易入門的。
五、實戰(zhàn)案例文章來源:http://www.zghlxwxcb.cn/news/detail-839934.html
紙上得來終覺淺,要學會跟著視頻一起敲,要動手實操,才能將自己的所學運用到實際當中去,這時候可以搞點實戰(zhàn)案例來學習。文章來源地址http://www.zghlxwxcb.cn/news/detail-839934.html

到了這里,關于秋神SD整合包 AI繪畫 Stable Diffusion 整合包 V4版 解壓即用 AI繪圖模型LoRA + 最新的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!