国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

關(guān)于stable diffusion的lora訓練在linux遠程工作站的部署

這篇具有很好參考價值的文章主要介紹了關(guān)于stable diffusion的lora訓練在linux遠程工作站的部署。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

在學校Arc中部署lora training,一大問題就是依賴缺失和沖突??梢岳胢iniconda或者anaconda建立虛擬環(huán)境來解決。

安裝anaconda 或者 miniconda(官網(wǎng)上也有教程):

wget https://repo.anaconda.com/archive/Anaconda3-5.3.0-Linux-x86_64.sh
chmod +x Anaconda3-5.3.0-Linux-x86_64.sh
./Anaconda3-5.3.0-Linux-x86_64.sh

建立虛擬環(huán)境:

conda create -n Lora python=3.10
conda init bash #添加conda環(huán)境進入Bash configuration file
source /root/.bashrc #重新加載bash配置
conda activate lora # 加載虛擬環(huán)境

現(xiàn)在進入到虛擬環(huán)境中

首先解決cuda的配置,其中要配置合適的cuda版本以及對應版本的cuDNN

conda官方庫中的cuda包都不完全,無法激活nvcc命令,因此使用conda-forge庫中的cudatoolkit包,以及dev包來確保可以激活nvcc命令。這里以cuda11.7版本為例。

conda install cudatoolkit==11.7.0 -c conda-forge# 
conda install cudatoolkit-dev==11.7.0 -c conda-forge# 

接下來安裝cuDNN,依舊使用conda-forge庫中的cudnn,我選擇使用8.4.0.27版本的。查看庫中的版本可以使用:

conda config --add channels conda-forge #加入conda forge 源
conda search -c conda-forge <package_name>

例如:

conda search -c conda-forge cudatoolkit #尋找可以使用的cudatoolkit版本
conda search -c conda-forge cudnn #尋找可以使用的cudnn版本

之后安裝對應版本的tensorflow:

參考:https://docs.nvidia.com/deeplearning/frameworks/tensorflow-release-notes/rel-23-02.html#rel-23-02

可知我們需要的tensorflow的版本是2.8.0版本,tensorRT版本是8.2.5,由于8.2.5無法由python 3.10 編譯,選擇最相近版本8.4.2.4。

pip install tensorflow-gpu==2.8.0
pip install tensorflow==2.8.0
pip install nvidia-tensorrt==8.4.2.4

之后安裝pytorch:

conda install pytorch cudatoolkit=11.7 -c pytorch

或者,你可以使用pip的話:

 pip install torch==1.13.1+cu117 -f https://download.pytorch.org/whl/cu117/torch_stable.html

以及安裝pytorchvision:同樣可以使用:

conda install pytorch torchvision cudatoolkit=11.7 -c pytorch

或者:

pip install torch torchvision -f https://download.pytorch.org/whl/cu117/torch_stable.html

安裝triton

pip install nvidia-pyindex
pip install triton

安裝trainer本體

下面參考:https://github.com/zwh20081/LoRA_onekey_deploy_script/blob/main/onekey_with_xformers_new.sh

之后可以安裝xformers來加速lora的訓練:

git clone https://github.com/facebookresearch/xformers/  #導入xformer文件
cd xformers
git submodule update --init --recursive
# 強制使用CUDA環(huán)境,不開啟可能會導致xformers未和CUDA一起編譯
export FORCE_CUDA="1"
# 進入https://developer.nvidia.com/cuda-gpus#compute
# 設置所用顯卡對應的Compute Capability,我的a-100是8.0,v-100是7.0
export TORCH_CUDA_ARCH_LIST=8.0
# PATH環(huán)境變量中追加cuda目錄,確保編譯時能識別鏡像預置的cuda11.7
export PATH=$PATH:/usr/local/cuda

# 確保gcc編譯時能夠識別cuda的頭文件cd(可能用不到)
pip install -r requirements.txt #安裝requirements.txt文本下需要的依賴
pip install -e . #在當前目錄下安裝xformer

這時你的xformer 應當安裝完畢。

之后安裝Lora訓練器:

cd .. #回到上層目錄
git clone https://github.com/derrian-distro/LoRA_Easy_Training_Scripts
cd LoRA_Easy_Training_Scripts
git submodule init #初始化git子模塊
git submodule update #升級子模塊
cd sd_scripts

pip install --upgrade -r requirements.txt #升級文本下的依賴

此時可能會更新:

但是tensorflow可能會錯誤的升級到2.10版本。因此根據(jù)你的cuda版本降級tensorflow。

我這里還是降級到2.8.0:

 pip install tensorflow==2.8.0

之后

accelerate config

這時應當可以正常使用了。

configure 過程中可能有一些設置,推薦是:

- This machine
- No distributed training
- NO
- NO
- NO
- all
- fp16/bf16

使用:

修改ArgsList.py中的參數(shù)設置

之后再main.py的目錄中使用:

accelerate launch main.py

Enjoy文章來源地址http://www.zghlxwxcb.cn/news/detail-490094.html

到了這里,關(guān)于關(guān)于stable diffusion的lora訓練在linux遠程工作站的部署的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務器費用

相關(guān)文章

  • Stable Diffusion XL訓練LoRA

    Stable Diffusion XL訓練LoRA

    主要包括SDXL模型結(jié)構(gòu),從0到1訓練SDXL以及LoRA教程,從0到1搭建SDXL推理流程。? 【一】SDXL訓練初識 Stable Diffusion系列模型的訓練主要分成一下幾個步驟,Stable Diffusion XL也不例外: 訓練集制作:數(shù)據(jù)質(zhì)量評估,標簽梳理,數(shù)據(jù)清洗,數(shù)據(jù)標注,標簽清洗,數(shù)據(jù)增強等。 訓練文

    2024年02月07日
    瀏覽(26)
  • 【stable diffusion LORA訓練】改進lora-scripts,命令行方式訓練LORA,支持SDXL訓練

    【stable diffusion LORA訓練】改進lora-scripts,命令行方式訓練LORA,支持SDXL訓練

    分享下自己改進的一個lora訓練腳本,在ubuntu下如果SD-WEBUI的環(huán)境已經(jīng)搭好的話,只需要下載lora-script就可以支持訓練了,直接命令行方式訓練。 首先,我們需要克隆下項目: git clone https://github.com/Akegarasu/lora-scripts 其次,更改項目里的train.sh腳本如下 根據(jù)自己機器的顯存適當

    2024年02月03日
    瀏覽(23)
  • Stable Diffusion Lora模型訓練詳細教程

    Stable Diffusion Lora模型訓練詳細教程

    通過Lora小模型可以控制很多特定場景的內(nèi)容生成。 但是那些模型是別人訓練好的,你肯定很好奇,我也想訓練一個自己的專屬模型(也叫煉丹~_~)。 甚至可以訓練一個專屬家庭版的模型(family model),非常有意思。 將自己的訓練好的Lora模型放到stableDiffusion lora 目錄中,

    2024年02月02日
    瀏覽(21)
  • Stable diffusion 訓練lora出現(xiàn)報錯

    Stable diffusion 訓練lora出現(xiàn)報錯

    今天使用kohya_ss訓練lora時出現(xiàn)三個報錯,下面是解決辦法。 一: 報錯 UnboundLocalError: local variable \\\'pipe\\\' referenced before assignment 這個應該是項目的BUG,現(xiàn)在的版本還沒修復,但是可以繞過它。方法如下:去?huggingface 下載預訓練的基礎模型到本地,復制模型的地址到紅色框內(nèi)并把

    2024年02月13日
    瀏覽(21)
  • LoRa模型訓練教程(煉丹,Stable Diffusion)

    LoRa模型訓練教程(煉丹,Stable Diffusion)

    何為LoRA?LoRA并不是擴散模型專有的技術(shù),而是從隔壁語言模型(LLM)遷移過來的,旨在解決避免將整個模型參數(shù)拷貝下來才能對模型進行調(diào)校的問題。因為大型語言模型的參數(shù)量過于恐怖,比如最近新出的GPT-4參數(shù)量約為100 萬億。 LoRA采用的方式是向原有的模型中插入新的數(shù)

    2024年02月10日
    瀏覽(25)
  • Stable Diffusion 使用lora-scripts WebUI訓練LoRA模型

    如果對代碼使用有困難的小伙伴可以直接使用WebUI版的LoRA模塊進行訓練操作。不管是訓練人物,場景,風格,還是服裝都是一套通用的模式,僅僅是使用不同的數(shù)據(jù)集得到的結(jié)果不同。 使用 git clone --recurse-submodules https://gi

    2024年02月17日
    瀏覽(22)
  • 煉丹!訓練 stable diffusion 來生成LoRA定制模型

    煉丹!訓練 stable diffusion 來生成LoRA定制模型

    LoRA,英文全稱Low-Rank Adaptation of Large Language Models,直譯為大語言模型的低階適應,這是微軟的研究人員為了解決大語言模型微調(diào)而開發(fā)的一項技術(shù)。 比如,GPT-3有1750億參數(shù),為了讓它能干特定領(lǐng)域的活兒,需要做微調(diào),但是如果直接對GPT-3做微調(diào),成本太高太麻煩了。 LoRA的

    2024年03月27日
    瀏覽(25)
  • Stable Diffusion 指定模型人物,Lora 訓練全流程

    Stable Diffusion 指定模型人物,Lora 訓練全流程

    在使用 Stable Diffusion 的時候,可以選擇別人訓練好的 Lora,那么如何訓練自己的 Lora,本篇文章介紹了介紹了如何訓練Lora,如何從訓練的模型中選擇好的模型,如何在 Stable Diffusion 中使用。 閑話不多說,直接實際操作吧,干貨滿滿,記得關(guān)注哦,以免找不到了。首先我們來獲

    2024年02月09日
    瀏覽(52)
  • AutoDL 訓練stable-diffusion lora模型

    AutoDL 訓練stable-diffusion lora模型

    1.創(chuàng)建鏡像實例 2. 啟動實例 ?3.啟動服務 4.配置參數(shù) 4.1 基礎模型選擇? ?4.2 文件路徑設置 ?5.點擊打印訓練信息 ?6.訓練模型(點擊Train model) ? ?

    2024年02月16日
    瀏覽(92)
  • 【 stable diffusion LORA模型訓練最全最詳細教程】

    【 stable diffusion LORA模型訓練最全最詳細教程】

    個人網(wǎng)站:https://tianfeng.space/ 其實想寫LORA模型訓練很久了,一直沒時間,總結(jié)一下現(xiàn)在主流的兩種LORA模型訓練方式,分別是朱尼醬的賽博丹爐和秋葉大佬的訓練腳本,訓練效果應該是賽博丹爐更好,我個人更推薦朱尼醬的賽博丹爐,界面炫酷,操作簡單,作者也是花了很多

    2024年02月09日
    瀏覽(44)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包