Stable diffusion 報 Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check 錯誤 及 排查解決
背景
先說一下我的顯卡配置 3060Ti ,當剛開始報這個錯誤的時候,發(fā)現(xiàn)基本上很多博主說的都是在 launch.py
或者 webui-user.bat
加一個參數(shù) --precision full --no-half --skip-torch-cuda-test
,webui-user.bat
是在 set COMMANDLINE_ARGS=
后面加或者launch.py
是在index_url = os.environ.get('INDEX_URL', "")
加。
加上之后確實不報錯了,也能啟動起來,但是簡單跑了一張圖之后,發(fā)現(xiàn)cpu奇高,gpu卻變化不大,而且速度特別慢,這用cpu跑圖也太浪費我的3060Ti了
加參數(shù)治標不治本
發(fā)現(xiàn)問題
偶然間看到這篇文章,看報錯信息和torch有關, 是不是我沒用到GPU的torch,用的是cpu的
原文地址:https://blog.csdn.net/zcs2632008/article/details/127025294
安裝步驟
因為之前環(huán)境安裝的差不多了,能啟動,cuda也安裝了。所以重點是三四五步
一、NVIDIA一般電腦上都有
二、安裝對應版本的CUDA,我是3060Ti對應的12.0版本,默認路徑是在C盤下的
三、下載對應版本的cuDNN(它是GPU的加速庫)壓縮包,解壓后會看到幾個文件夾 ,內容放到CUDA對應的文件夾(網(wǎng)上很多教程)
四、安裝GPU 版的torch 和torchversion 。主要版本不好找,我CUDA是12.0,但是現(xiàn)在最高的才11.8 ,所以用的11.8
可以參考別人的這篇文章:https://blog.csdn.net/qq_43575504/article/details/129559776
五、用命令卸載掉torch 和torchversion
因為最開始大家安裝的方式不同,我是最普通的安裝方式,有人是直接用的別人封裝好的,我說一下我的接下來是怎么操作
- 把項目導入PyCharm
- 把torch和torchversion兩個whl文件放到
\stable-diffusion-webui\venv\Lib\site-packages
下面了 - 在控制臺運行卸載命令和安裝命令
先卸載再安裝,路徑改成自己的,別用我的路徑文章來源:http://www.zghlxwxcb.cn/news/detail-483480.html
pip uninstall torch #卸載之前安裝的torch
pip uninstall torchversion
pip install D:\ruanjian\Stable-Diffusion\stable-diffusion-webui\venv\Lib\site-packages\torch-2.0.1+cu1
18-cp310-cp310-win_amd64.whl
pip install D:\ruanjian\Stable-Diffusion\stable-diffusion-webui\venv\Lib\site-packages\torchvision-0.1
5.2+cu118-cp310-cp310-win_amd64.whl
六、再啟動
把之前添加的--precision full --no-half --skip-torch-cuda-test
刪掉
再啟動
這時候就沒有報錯信息了,再跑圖,也發(fā)現(xiàn)明顯快了不少,而且cpu是正常的。
不熟悉可能會耽誤幾個小時,諸位多點耐心文章來源地址http://www.zghlxwxcb.cn/news/detail-483480.html
深夜解決了這個問題,覺得有網(wǎng)友會有跟我一樣的問題,所以就寫了這篇文章,寫的有些簡略(每一步都能百度到),望海涵,不過知道問題所在了,就好解決了
到了這里,關于Stable diffusion報Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variab的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!