4月12日,微軟宣布開源了Deep Speed Chat,幫助用戶輕松訓練類ChatGPT等大語言模型,使得人人都能擁有自己的ChatGPT?。ㄩ_源地址:https://github.com/microsoft/DeepSpeed)?
據(jù)悉,Deep Speed Chat是基于微軟Deep Speed深度學習優(yōu)化庫開發(fā)而成,具備訓練、強化推理等功能,還使用了RLHF(人工反饋機制的強化學習)技術,可將訓練速度提升15倍以上,成本卻大幅度降低。例如,一個130億參數(shù)的類ChatGPT模型,只需1.25小時就能完成訓練。
簡單來說,用戶通過Deep Speed Chat提供的“傻瓜式”操作,能以最短的時間、最高效的成本訓練類ChatGPT大語言模型,這標志著一個人手一個ChatGPT的時代要來了。
,時長03:12
產(chǎn)品演示
微軟為什么開源Deep Speed Chat
ChatGPT只用了幾個月的時間便席卷全球,成為史上用戶增長速度最快的消費級應用,對世界的經(jīng)濟發(fā)展、科技研發(fā)起到了重要的推動作用。很多企業(yè)、個人用戶紛紛想?yún)⑴c到這場AI技術變革中,但由于龐大的資源、資金投入只能望而卻步。
即便開源領域推出了LLaMa、Alpaca、Vicuna、Databricks-Dolly等優(yōu)秀的類ChatGPT項目,仍缺乏一個支持端到端的基于RLHF的規(guī)?;到y(tǒng),使得訓練強大的類ChatGPT模型非常艱難。
例如,使用上述開源項目訓練一個67億參數(shù)的類ChatGPT模型,通常需要昂貴的多卡至多節(jié)點的GPU集群,但這些資源對大多數(shù)科學家、小型企業(yè)、個人開發(fā)者而言難以獲取。
即便是擁有這樣的資源,現(xiàn)有的開源系統(tǒng)的訓練效率通常還不到,這些機器所能達到的最大效率的5%。
現(xiàn)在,通過Deep Speed Chat解決資源、算法等難題,輕松、高效的訓練數(shù)千億參數(shù)的最先進的類ChatGPT模型。
Deep Speed Chat技術簡單介紹
ChatGPT模型的訓練是基于InstructGPT論文中的RLHF方式,這使得現(xiàn)有深度學習系統(tǒng)在訓練類ChatGPT模型時存在種種局限?,F(xiàn)在,通過Deep Speed Chat可以突破這些訓練瓶頸,達到最佳效果。
Deep Speed Chat擁有強化推理、RLHF模塊、RLHF系統(tǒng)三大核心功能。
簡化 ChatGPT 類型模型的訓練和強化推理:只需一個腳本即可實現(xiàn)多個訓練步驟,包括使用Huggingface 預訓練的模型、使用 DeepSpeed-RLHF 系統(tǒng)運行 InstructGPT 訓練的所有三個步驟,生成屬于自己的類ChatGPT模型。此外,還提供了一個易于使用的推理API,用于在模型訓練后測試對話性能。
Deep Speed-RLHF?模塊:DeepSpeed-RLHF 復刻了InstructGPT 論文中的訓練模式,并確保包括:a) 監(jiān)督微調(diào)(SFT),b) 獎勵模型微調(diào)和 c) 基于人類反饋的強化學習(RLHF)在內(nèi)的三個步驟與其對應。此外,還提供了數(shù)據(jù)抽象和混合功能,以支持用戶使用多個不同來源的數(shù)據(jù)源進行訓練。
DeepSpeed-RLHF系統(tǒng):將DeepSpeed的訓練和推理能力整合到統(tǒng)一的混合引擎(DeepSpeed Hybrid Engine or DeepSpeed-HE)中用于RLHF 訓練。DeepSpeed-HE 能夠在RLHF中無縫地在推理和訓練模式之間切換,使其能夠利用來自 DeepSpeed-Inference 的各種優(yōu)化。
例如,張量并行計算和高性能CUDA算子進行語言生成,同時對訓練部分還能從 ZeRO- 和 LoRA-based 內(nèi)存優(yōu)化策略中受益。DeepSpeed-HE可以自動在 RLHF 的不同階段進行智能的內(nèi)存管理和數(shù)據(jù)緩存。
此外,Deep Speed Chat在成本、效率、擴展性等方面非常優(yōu)秀。
高效且節(jié)省成本:在Azure云上只需9小時即可訓練一個OPT-13B模型,只需18小時即可訓練一個 OPT-30B模型。這兩種訓練分別花費不到300美元和600 美元。
卓越擴展性:能夠支持訓練擁有數(shù)千億參數(shù)的模型,并在多節(jié)點多 GPU 系統(tǒng)上展現(xiàn)出卓越的擴展性。因此,即使是一個擁有 130 億參數(shù)的模型,也只需 1.25 小時就能完成訓練。而對于擁1750億參數(shù)的模型,使用Deep Speed Chat進行訓練也只需不到一天的時間。
注意:在Azure上訓練時由于GPU不同,所以訓練時間和費用也各不相同。
全民ChatGPT時代來了
做個不太恰當?shù)谋扔鳎④洿舜伍_源Deep Speed Chat就像當年的互聯(lián)網(wǎng),為了提升發(fā)展速率降低了臺式機的價格,使得普通用戶也能擁有自己的電腦。
只有參與的用戶多了,整個行業(yè)生態(tài)才能快速壯大發(fā)展,所以,微軟此次開源對整個ChatGPT生態(tài)發(fā)展起到了至關重要的推動作用,使得人人都能擁有自己的ChatGPT。文章來源:http://www.zghlxwxcb.cn/news/detail-430720.html
目前,ChatGPT處于初級發(fā)展階段,存在安全隱患、數(shù)據(jù)隱私、道德等問題。相信隨著參與用戶的增多,這些難題將會被有效的解決,從而為全球經(jīng)濟發(fā)展做出貢文章來源地址http://www.zghlxwxcb.cn/news/detail-430720.html
到了這里,關于重磅!微軟開源Deep Speed Chat,人人擁有ChatGPT!的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!