yolov5訓(xùn)練命令
python .\train.py --data my.yaml --workers 8 --batch-size 32 --epochs 100
yolov5的訓(xùn)練很簡(jiǎn)單,下載好倉(cāng)庫(kù),裝好依賴后,只需自定義一下data目錄中的yaml文件就可以了。這里我使用自定義的my.yaml文件,里面就是定義數(shù)據(jù)集位置和訓(xùn)練種類數(shù)和名字。
workers和batch-size參數(shù)的理解
一般訓(xùn)練主要需要調(diào)整的參數(shù)是這兩個(gè):
-
workers
指數(shù)據(jù)裝載時(shí)cpu所使用的線程數(shù),默認(rèn)為8。代碼解釋如下
parser.add_argument('--workers', type=int, default=8, help='max dataloader workers (per RANK in DDP mode)')
一般默使用8的話,會(huì)報(bào)錯(cuò)~~。原因是爆系統(tǒng)內(nèi)存,除了物理內(nèi)存外,需要調(diào)整系統(tǒng)的虛擬內(nèi)存。訓(xùn)練時(shí)主要看已提交哪里的實(shí)際值是否會(huì)超過(guò)最大值,超過(guò)了不是強(qiáng)退程序就是報(bào)錯(cuò)。
所以需要根據(jù)實(shí)際情況分配系統(tǒng)虛擬內(nèi)存(python執(zhí)行程序所在的盤(pán))的最大值
- batch-size
就是一次往GPU哪里塞多少?gòu)垐D片了。決定了顯存占用大小,默認(rèn)是16。
parser.add_argument('--batch-size', type=int, default=16, help='total batch size for all GPUs, -1 for autobatch')
訓(xùn)練時(shí)顯存占用越大當(dāng)然效果越好,但如果爆顯存,也是會(huì)無(wú)法訓(xùn)練的。我使用–batch-size 32時(shí),顯存差不多能利用完。
兩個(gè)參數(shù)的調(diào)優(yōu)
- 對(duì)于workers,并不是越大越好,太大時(shí)gpu其實(shí)處理不過(guò)來(lái),訓(xùn)練速度一樣,但虛擬內(nèi)存(磁盤(pán)空間)會(huì)成倍占用。
workers為4時(shí)的內(nèi)存占用
workers為8時(shí)的內(nèi)存占用
我的顯卡是rtx3050,實(shí)際使用中上到4以上就差別不大了,gpu完全吃滿了。但是如果設(shè)置得太小,gpu會(huì)跑不滿。比如當(dāng)workers=1時(shí),顯卡功耗只得72W,速度慢了一半;workers=4時(shí),顯卡功耗能上到120+w,完全榨干了顯卡的算力。所以需要根據(jù)你實(shí)際的算力調(diào)整這個(gè)參數(shù)。
2. 對(duì)于batch-size,有點(diǎn)玄學(xué)。理論是能盡量跑滿顯存為佳,但實(shí)際測(cè)試下來(lái),發(fā)現(xiàn)當(dāng)為8的倍數(shù)時(shí)效率更高一點(diǎn)。就是32時(shí)的訓(xùn)練效率會(huì)比34的高一點(diǎn),這里就不太清楚原理是什么了,實(shí)際操作下來(lái)是這樣。文章來(lái)源:http://www.zghlxwxcb.cn/news/detail-412507.html
總結(jié)
以上參數(shù)的調(diào)整能最大化顯卡的使用效率,其中的具體數(shù)值和電腦的實(shí)際配置還有模型大小、數(shù)據(jù)集大小有關(guān),需要根據(jù)實(shí)際情況反復(fù)調(diào)整。當(dāng)然,要實(shí)質(zhì)提升訓(xùn)練速度,還是得有好顯卡(鈔能力)~~~~文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-412507.html
到了這里,關(guān)于關(guān)于yolov5訓(xùn)練時(shí)參數(shù)workers和batch-size的理解的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!