Stable Diffusion web UI 安裝教程
歡迎來到貓說AI,wx搜索,貓說AI接入了最新版Chatgpt供大家免費使用。
注意:這是ubuntu20.04安裝步驟!
- conda創(chuàng)建python虛擬環(huán)境
conda create -n stable python=3.10 -y
conda activate stable
- clone項目并下載依賴
git clone https://ghproxy.com/https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
3.安裝依賴
pip install -r requirements_versions.txt
修改lanch.py
注意由于網(wǎng)絡(luò)限制,需要將所有g(shù)ithub的地址前面都加上代理前綴,請自行修改
修改如下:
def prepare_environment():
global skip_install
torch_command = os.environ.get('TORCH_COMMAND', "pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117 --extra-index-url https://download.pytorch.org/whl/cu117")
requirements_file = os.environ.get('REQS_FILE', "requirements_versions.txt")
xformers_package = os.environ.get('XFORMERS_PACKAGE', 'xformers==0.0.16rc425')
gfpgan_package = os.environ.get('GFPGAN_PACKAGE', "git+https://ghproxy.com/https://github.com/TencentARC/GFPGAN.git@8d2447a2d918f8eba5a4a01463fd48e45126a379")
clip_package = os.environ.get('CLIP_PACKAGE', "git+https://ghproxy.com/https://github.com/openai/CLIP.git@d50d76daa670286dd6cacf3bcd80b5e4823fc8e1")
openclip_package = os.environ.get('OPENCLIP_PACKAGE', "git+https://ghproxy.com/https://github.com/mlfoundations/open_clip.git@bb6e834e9c70d9c27d0dc3ecedeebeaeb1ffad6b")
stable_diffusion_repo = os.environ.get('STABLE_DIFFUSION_REPO', "https://ghproxy.com/https://github.com/Stability-AI/stablediffusion.git")
taming_transformers_repo = os.environ.get('TAMING_TRANSFORMERS_REPO', "https://ghproxy.com/https://github.com/CompVis/taming-transformers.git")
k_diffusion_repo = os.environ.get('K_DIFFUSION_REPO', 'https://ghproxy.com/https://github.com/crowsonkb/k-diffusion.git')
codeformer_repo = os.environ.get('CODEFORMER_REPO', 'https://ghproxy.com/https://github.com/sczhou/CodeFormer.git')
blip_repo = os.environ.get('BLIP_REPO', 'https://ghproxy.com/https://github.com/salesforce/BLIP.git')
可以先運行起來,會自動安裝依賴
python launch.py --share
手動安裝剩余部分依賴
pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117 --extra-index-url https://download.pytorch.org/whl/cu117
4.安裝xformers(可選)
git clone https://ghproxy.com/https://github.com/facebookresearch/xformers/
cd xformers/
git submodule update --init --recursive
接下來可能會失敗,執(zhí)行如下步驟后重新執(zhí)行就成功了
cd .git/
vi config
替換所有的github鏈接為加速鏈接 https://ghproxy.com/
然后刪除third_party目錄下的兩個未下載完成的子項目
cd ..
cd third_party
rm -rf cutlass
rm -rf flash-attention
cd ..
git submodule update --init --recursive
# 強制使用CUDA,不開啟可能會導(dǎo)致xformers未和CUDA一起編譯
export FORCE_CUDA="1"
# 進入https://developer.nvidia.com/cuda-gpus#compute
# 設(shè)置所用顯卡對應(yīng)的Compute Capability,3090和A5000都是8.6
export TORCH_CUDA_ARCH_LIST=7.0
# PATH環(huán)境變量中追加cuda目錄,確保編譯時能識別鏡像預(yù)置的cuda11.6
export PATH=$PATH:/usr/local/cuda
# 確保gcc編譯時能夠識別cuda的頭文件
export CPATH=/usr/local/cuda/targets/x86_64-linux/include
pip install -r requirements.txt
pip install -e .
注意: xformers編譯安裝過程時間比較久,如果不想一直等待可以用screen去后臺執(zhí)行。
創(chuàng)建窗口
screen -S stable
查詢窗口id
screen -r
進入窗口
screen -r pid
激活conda虛擬環(huán)境,并在后臺安裝:
conda activate stable
pip install -e .
接下來讓它自己去編譯安裝吧,我們按
ctrl + a 然后按 d 來退出當前窗口
要想再連接輸入
screen -r 即可。
啟動web UI
python -u launch.py --no-half --port 8850 --listen --xformers --share
nohup后臺啟動:
nohup python -u launch.py --no-half --share --xformers > log.log 2>&1 &
最后啟動完如下圖所示:
大功告成!
5.安裝 Controlnet插件
打開stable-diffusion,點擊最右側(cè)的extension,接著點擊available,再點擊“Load from:”按鈕。
在此之后,您將看到一系列可用插件的列表。
需要注意的是,有時候在點擊"load from"按鈕后,頁面可能會因連接失敗而出現(xiàn)錯誤提示。這時,請不要著急,可以刷新頁面并檢查網(wǎng)絡(luò)設(shè)置(例如開啟或切換內(nèi)外網(wǎng)),然后再次嘗試點擊"load from"按鈕,多嘗試幾次即可。
接下來,您可以使用Ctrl/command + F快捷鍵,在搜索框中輸入“controlnet”,找到ControlNet插件,并單擊右側(cè)的"install"按鈕以安裝該插件。
安裝完成后,插件面板會顯示 intalled into xxxx,說明已經(jīng)安裝好了。
如果在available頁面無法下載ControlNet插件,用戶可以嘗試通過Install from URL頁面手動安裝。插件地址為
https://github.com/Mikubill/sd-webui-controlnet
或者,用戶可以先將整個包通過git clone或者GitHub網(wǎng)頁下載,在stable-diffusion-webui > extensions文件夾下放置下載的包即可。
完成插件安裝后,請確保在installed頁面點擊“apply and restart(應(yīng)用并重啟)”,以使更改生效。
接下來,安裝Openpose。在切換到installed頁面之前,我們需要先安裝一個名為Openpose Editor的插件,以便后續(xù)自定義POSE(姿勢)。
使用搜索框查找"openpose",找到相應(yīng)的插件,并單擊右側(cè)的"install"按鈕以安裝該插件。
等待安裝,直到顯示“Installed into … openpose-editor. Use Installed tab to restart.”代表安裝完成。
這時候,點擊installed 頁面,你會發(fā)現(xiàn),剛剛安裝的兩個插件都已經(jīng)顯示在上面了。這時候點擊apply and restart ui(應(yīng)用并重啟軟件),接著等待網(wǎng)頁自動刷新,如果顯示無法連接,那么手動刷新下。
如果在available頁面無法進行插件安裝,用戶可以嘗試通過install from url頁面安裝插件,或者下載代碼包并將其復(fù)制到stable-diffusion-webui > extensions目錄下。插件地址為
https://github.com/fkunn1326/openpose-editor
完成插件安裝后,請確保在installed頁面點擊“apply and restart(應(yīng)用并重啟)”,以使更改生效。
接下來,打開ControlNet編輯器。刷新頁面后,在stable的首頁上方將看到一個名為"ControlNet"的長條,單擊該條后面的三角形按鈕即可展開相關(guān)選項。
展開界面如下圖。
5.下載模型。
ControlNet是一種需要專門模型支持的技術(shù),只有使用了相應(yīng)的模型才能實現(xiàn)相關(guān)功能,如繪制指導(dǎo)圖等。
要開始使用ControlNet,我們需要下載相應(yīng)的模型文件。您可以在以下鏈接找到模型文件:
https://huggingface.co/lllyasviel/ControlNet/tree/main/models
然而,這里有很多不同版本的模型可供選擇。針對不同的使用場景和需求,選擇不同版本的模型可能會產(chǎn)生不同的效果。因此,選擇哪種模型也是一個需要仔細考慮的問題。
為了更好地選擇適合自己的模型,建議用戶仔細閱讀官方說明或文檔,并根據(jù)自己的實際需求和硬件配置來選擇最合適的模型版本。
當面對硬盤空間有限的情況時,我們可以先選擇下載自己需要的模型文件,如Canny、Openpose和Scribble。其中,Canny可用于邊緣檢測等通用場景,Openpose則是專用于姿勢控制的模型,而Scribble則適合隨手涂鴉并生成精美畫面,具備很高的玩耍性質(zhì)。
盡管每個模型都有各自的特點和使用場景,但如果擁有更大的硬盤空間,建議全量下載所有模型以獲取更多體驗樂趣。
下載完成后,將相應(yīng)的.pth文件放入stable-diffusion-webui > models > ControlNet文件夾下即可開始使用ControlNet。
值得注意的是,ControlNet依賴xformers算法框架及Nvidia顯卡,因此在其他系統(tǒng)上可能會遇到效果達不到預(yù)期或速度較慢等問題。
另外,關(guān)于ControlNet的具體使用方法,由于其較為復(fù)雜,建議用戶仔細閱讀官方文檔和相關(guān)使用說明,并進行一定的實踐積累后再進行嘗試。后面會分享關(guān)于ControlNet的使用技巧和案例。
Control Net模型文件我已經(jīng)放到網(wǎng)盤中,有需要的小伙伴可關(guān)注wx 公眾號
貓說AI文章來源地址http://www.zghlxwxcb.cn/news/detail-490116.html
公眾號還接入了最新版Chatgpt哦!
后臺留言獲取!文章來源:http://www.zghlxwxcb.cn/news/detail-490116.html
貓說AI
到了這里,關(guān)于Stable Diffusion web UI 安裝教程的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!