Stable Diffusion WebUI開源地址:https://github.com/AUTOMATIC1111/stable-diffusion-webui
?首先根據(jù)要求做以下準(zhǔn)備工作:
1. 安裝?Python 3.10.6, 安裝時記得勾選"Add Python to PATH"把Python添加到環(huán)境變量.
2. 安裝Git環(huán)境,Git - Downloading Package
3. 用git命令把下載Stable Diffusion WebUI項目:
??
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
4. 項目下載到本地后雙擊?webui-user.bat 運行
。
webui-user.bat執(zhí)行后會下載大量依賴環(huán)境,
不出意外的話應(yīng)該會輸出各種報錯,這是因為
很多依賴的庫都是從github下載,國內(nèi)訪問github不穩(wěn)定,即開了魔法上網(wǎng)也經(jīng)常出下載報錯。
這時候就需要使用github加速工具:Releases · dotnetcore/FastGithub · GitHub
?5. 下載安裝FastGithub, 直接雙節(jié)打開,在后臺掛起。
?6. 再次執(zhí)行步驟4,就開始下載依賴環(huán)境了。如果中途仍有報錯多執(zhí)行幾遍步驟4即可。
?經(jīng)過漫長的下載,最后命令行可能會出現(xiàn):No module 'xformers'. Proceeding without it.
不必驚慌,不使用xformers模塊也是沒問題的。
最后看到Running on local URL: ?http://127.0.0.1:7860,那么恭喜,環(huán)境搭建成功。
?7. 運行webui-user.bat會啟動一個區(qū)域網(wǎng)web服務(wù)器,
在瀏覽器輸入127.0.0.1:7860打開Stable Diffusion WebUI界面:
Prompt:期望圖片包含的元素;
Negative Prompt:不期望圖片包含的元素;
然后點擊Generate按鈕生成圖像。
8. 添加擴展插件,上來就用肯定是還差火候的,還需要安裝各種插件加強功能才能發(fā)揮出真正的實力。添加插件方式:
?9. 如果想讓局域網(wǎng)的其它電腦也能根據(jù)ip打開Stable Diffusion WebUI界面,需要在webui-user.bat文件中,COMMANDLINE_ARGS追加參數(shù)”--listen“:
@echo off
set PYTHON=
set GIT=
set VENV_DIR=
set COMMANDLINE_ARGS=--listen
call webui.bat
保存后重新運行webui-user.bat其它局域網(wǎng)中的電腦直接通過ip就能使用Stable Diffusion WebUI了。
AI是使用GPU運算,比較吃顯卡,當(dāng)然也可以設(shè)置只走CPU運算,那會巨慢。如果顯卡比較吃力需要調(diào)低生成圖像分辨率。
OK, 開始見證奇跡的時刻。
使用的時候會發(fā)現(xiàn),原來提取想要畫面的關(guān)鍵詞也挺費勁的. 推薦兩個關(guān)鍵詞獲取網(wǎng)站:
Prompt關(guān)鍵詞分享網(wǎng)站:
1. https://lexica.art
2. https://arthub.ai
3.?Discover and Generate AI Art | OpenArt
隨便找個別人分享的Prompt測試,別人生成結(jié)果如下:
?相同參數(shù)我的生成結(jié)果如下:
?差點意思是不是?這是因為我們使用的AI模型不同,Stable Diffusion默認(rèn)自帶一個AI模型:
?所以為了能讓AI更加精確的根據(jù)描述生成高質(zhì)量圖像,還需要訓(xùn)練自己的AI模型,或者下載安裝別人訓(xùn)練好的AI模型文件。?
AI模型下載:?
1.https://civitai.com
2.?https://huggingface.co
2.?Stable Diffusion Models
SD的AI模型有safetensors和ckpt格式,前者顧名思義,更安全。把下載好的模型文件放到stable-diffusion-webui\models\Stable-diffusion目錄下,重新啟動webui-user.bat,生成圖片前選擇對應(yīng)的AI模型就可以得到差別巨大的圖像:
使用新的AI模型再次生成圖像,欸好像有LSP內(nèi)味兒了,和原圖還差挺遠(yuǎn):
?換個AI模型再生成一遍, 不能說一模一樣,可以說毫無關(guān)系:
?由此可見,不同AI模型根據(jù)不同的圖像素材訓(xùn)練,基于不同模型生成的圖像也會千差萬別。如果AI模型覆蓋面不夠廣泛,就很難根據(jù)給出關(guān)鍵詞精確生成用戶心中所想的畫面。
需要不停的修改描述詞重新生成,直到出現(xiàn)符合預(yù)期的元素,用sd-webui-controlnet插件輔助姿勢鎖定等,以及通過區(qū)域遮罩把符合預(yù)期的區(qū)域涂上遮罩,以使下次生成圖片時保留標(biāo)記區(qū)域。重復(fù)上述步驟,直到生成整體滿意的圖像。文章來源:http://www.zghlxwxcb.cn/news/detail-441874.html
雖然就目前而言,無論是搭建Stable Diffusion環(huán)境,還是提取關(guān)鍵詞、通過各種插件輔助生成目標(biāo)圖像,對于美術(shù)而言都門檻過高。但AI的更新迭代通常是指數(shù)級上升,很快就會更加完善。強烈建議美術(shù)們抓緊時間學(xué)習(xí)使用,緊跟前沿技術(shù)。與時俱進(jìn)的人永遠(yuǎn)不會被AI取代。文章來源地址http://www.zghlxwxcb.cn/news/detail-441874.html
到了這里,關(guān)于【AI繪圖】Stable Diffusion WebUI環(huán)境搭建的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!