国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Code Llama系列教程之 微調(diào) CodeLlama 34B 以進(jìn)行聊天(打造自己的代碼AI)

這篇具有很好參考價(jià)值的文章主要介紹了Code Llama系列教程之 微調(diào) CodeLlama 34B 以進(jìn)行聊天(打造自己的代碼AI)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

雖然 Meta 的 Llama2 在 AI 領(lǐng)域引起了廣泛關(guān)注,但 34b 模型卻缺席了相當(dāng)長(zhǎng)一段時(shí)間。對(duì)于許多人來(lái)說(shuō),這個(gè) 34b 模型是運(yùn)行本地 LLM 的理想選擇,因?yàn)樗c使用 4 位量化的單個(gè) 4090 GPU 兼容。我一直在熱切地等待 Meta 發(fā)布這個(gè)特定的模型。幸運(yùn)的是,Meta 最近推出了 CodeLlama,這是一個(gè)針對(duì)編碼相關(guān)任務(wù)訓(xùn)練的專門(mén)模型。然而,根據(jù)他們的論文,由于原始 Llama2 模型是在 2t 個(gè)令牌上訓(xùn)練的,因此它在原始 Llama2 的 34b 個(gè)令牌上額外訓(xùn)練了 500b 個(gè)令牌。Codellama 僅在訓(xùn)練期間添加了額外的 500b 令牌,并且從概念上講將針對(duì)各種下游領(lǐng)域進(jìn)行進(jìn)一步微調(diào)。

在這篇博文中,我將引導(dǎo)您完成微調(diào) CodeLlama 34B 模型的完整過(guò)程。培訓(xùn)結(jié)束后,我將指導(dǎo)您如何量化模型并使用 Huggingface 的文本生成推理框架進(jìn)行部署。

QLora 代碼Llama 34B

合并適配器

完成微調(diào)過(guò)程后,最好將適配器合并回基本模型。由于涉及額外的參數(shù)和計(jì)算,直接在適配器上運(yùn)行推理可能會(huì)導(dǎo)致性能降低。

您可以使用以下腳本在CP??U上合并適配器以避免OOM: https: //gist.github.com/mzbac/16b0f4289059d18b8ed34345ae1ab168

python merge_peft_adapters.py - device cpu - base_model_name_or_path codellama/CodeLlama-34b-hf - peft_model_path ./results_new/final_checkpoint - output_dir ./merged_models/

量化

在當(dāng)?shù)氐姆▽W(xué)碩士社區(qū)文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-724961.html

到了這里,關(guān)于Code Llama系列教程之 微調(diào) CodeLlama 34B 以進(jìn)行聊天(打造自己的代碼AI)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Llama 2:開(kāi)放基礎(chǔ)和微調(diào)聊天模型

    Llama 2:開(kāi)放基礎(chǔ)和微調(diào)聊天模型

    大型語(yǔ)言模型(llm)作為高能力的人工智能助手,在復(fù)雜的推理任務(wù)中表現(xiàn)出色,這些任務(wù)需要廣泛領(lǐng)域的專家知識(shí),包括編程和創(chuàng)意寫(xiě)作等專業(yè)領(lǐng)域。它們可以通過(guò)直觀的聊天界面與人類進(jìn)行交互,這在公眾中得到了迅速而廣泛的采用。 法學(xué)碩士的能力是顯著的考慮到訓(xùn)練的

    2024年02月14日
    瀏覽(14)
  • 微調(diào) Code Llama 完整指南

    今天這篇文章將向大家詳細(xì)介紹如何對(duì) Code Llama 進(jìn)行微調(diào),讓它變成適合 SQL 開(kāi)發(fā)的有利工具。對(duì)于編程開(kāi)發(fā)任務(wù),經(jīng)過(guò)適當(dāng)微調(diào)后的 Code Llama 的性能通常都會(huì)比普通的 Llama 強(qiáng)很多,特別是當(dāng)我們針對(duì)具體任務(wù)進(jìn)行優(yōu)化時(shí): 使用 b-mc2/sql-create-context 這個(gè)文本查詢及其對(duì)應(yīng)的SQ

    2024年02月04日
    瀏覽(17)
  • llama-factory SFT 系列教程 (四),lora sft 微調(diào)后,使用vllm加速推理

    llama-factory SFT 系列教程 (四),lora sft 微調(diào)后,使用vllm加速推理

    llama-factory SFT系列教程 (一),大模型 API 部署與使用 llama-factory SFT系列教程 (二),大模型在自定義數(shù)據(jù)集 lora 訓(xùn)練與部署 llama-factory SFT系列教程 (三),chatglm3-6B 命名實(shí)體識(shí)別實(shí)戰(zhàn) llama-factory SFT 系列教程 (四),lora sft 微調(diào)后,使用vllm加速推理 llama-factory 提供了 vllm API 部署,但筆

    2024年04月27日
    瀏覽(20)
  • 羊駝2:開(kāi)放的基礎(chǔ)和微調(diào)聊天模型--Llama 2論文閱讀

    羊駝2:開(kāi)放的基礎(chǔ)和微調(diào)聊天模型--Llama 2論文閱讀

    論文地址:https://arxiv.org/pdf/2307.09288.pdfd 代碼地址:GitHub - facebookresearch/llama-recipes: Examples and recipes for Llama 2 model 問(wèn)答 這篇文檔中使用了3.3M GPU小時(shí)的計(jì)算,使用的硬件類型是A100-80GB,可以擴(kuò)展到2000個(gè)GPU,但這些計(jì)算的功耗估計(jì)并不包括互連或非GPU服務(wù)器功耗,也不包括數(shù)據(jù)

    2024年01月16日
    瀏覽(18)
  • Llama2 論文中譯版——開(kāi)放式基礎(chǔ)和微調(diào)聊天模型

    Llama2 論文中譯版——開(kāi)放式基礎(chǔ)和微調(diào)聊天模型

    因?yàn)樽罱恢痹谑褂?LLM 工具,所以在學(xué)習(xí) Llama 2:開(kāi)放式基礎(chǔ)和微調(diào)聊天模型 這篇論文的期間,順手將內(nèi)容翻譯了過(guò)來(lái)。 整片譯文是由 ChatGPT3.5、DeepL、Copilot X和筆者一起完成的,特此表示感謝。 在這項(xiàng)工作中,我們開(kāi)發(fā)并發(fā)布了 Llama 2,這是一組經(jīng)過(guò)預(yù)訓(xùn)練和微調(diào)的大型語(yǔ)

    2024年02月15日
    瀏覽(22)
  • ChatDoctor:一個(gè)基于微調(diào)LLaMA模型用于醫(yī)學(xué)領(lǐng)域的醫(yī)學(xué)聊天機(jī)器人

    ChatDoctor:一個(gè)基于微調(diào)LLaMA模型用于醫(yī)學(xué)領(lǐng)域的醫(yī)學(xué)聊天機(jī)器人

    ChatDoctor:一個(gè)基于微調(diào)LLaMA模型用于醫(yī)學(xué)領(lǐng)域的醫(yī)學(xué)聊天機(jī)器人 https://www.yunxiangli.top/ChatDoctor/ Demo.自動(dòng)聊天醫(yī)生與疾病數(shù)據(jù)庫(kù)演示。 HealthCareMagic-100k.100k患者和醫(yī)生之間的真實(shí)的對(duì)話HealthCareMagic.com。 icliniq-10k.患者和醫(yī)生之間的真實(shí)的對(duì)話來(lái)自icliniq.com icliniq-10 k。 link.ChatDoct

    2024年02月13日
    瀏覽(27)
  • “私密離線聊天新體驗(yàn)!llama-gpt聊天機(jī)器人:極速、安全、搭載Llama 2,盡享Code Llama支持!”

    一個(gè)自托管的、離線的、類似chatgpt的聊天機(jī)器人。由美洲駝提供動(dòng)力。100%私密,沒(méi)有數(shù)據(jù)離開(kāi)您的設(shè)備。 https://github.com/getumbrel/llama-gpt/assets/10330103/5d1a76b8-ed03-4a51-90bd-12ebfaf1e6cd “私密離線聊天新體驗(yàn)!llama-gpt聊天機(jī)器人 Currently, LlamaGPT supports the following models. Support for runnin

    2024年02月04日
    瀏覽(14)
  • 【llm 微調(diào)code-llama 訓(xùn)練自己的數(shù)據(jù)集 一個(gè)小案例】

    根據(jù)情況改就行了,jsonl格式,三個(gè)字段:context, answer, question 主要參考 https://zhuanlan.zhihu.com/p/660933421

    2024年01月21日
    瀏覽(16)
  • 寫(xiě)代碼神器!48個(gè)主流代碼生成LLM大模型盤(pán)點(diǎn),包含專用、微調(diào)等4大類Code llama

    寫(xiě)代碼神器!48個(gè)主流代碼生成LLM大模型盤(pán)點(diǎn),包含專用、微調(diào)等4大類Code llama

    學(xué)姐帶你玩AI? 2023-12-06 18:20 代碼大模型 具有強(qiáng)大的表達(dá)能力和復(fù)雜性,可以處理各種自然語(yǔ)言任務(wù),包括文本分類、問(wèn)答、對(duì)話等。這些模型通?;谏疃葘W(xué)習(xí)架構(gòu),如Transformer,并使用預(yù)訓(xùn)練目標(biāo)(如語(yǔ)言建模)進(jìn)行訓(xùn)練。 在對(duì)大量代碼數(shù)據(jù)的學(xué)習(xí)和訓(xùn)練過(guò)程中, 代碼大

    2024年04月11日
    瀏覽(23)
  • 使用QLoRA對(duì)Llama 2進(jìn)行微調(diào)的詳細(xì)筆記

    使用QLoRA對(duì)Llama 2進(jìn)行微調(diào)的詳細(xì)筆記

    使用QLoRA對(duì)Llama 2進(jìn)行微調(diào)是我們常用的一個(gè)方法,但是在微調(diào)時(shí)會(huì)遇到各種各樣的問(wèn)題,所以在本文中,將嘗試以詳細(xì)注釋的方式給出一些常見(jiàn)問(wèn)題的答案。這些問(wèn)題是特定于代碼的,大多數(shù)注釋都是針對(duì)所涉及的開(kāi)源庫(kù)以及所使用的方法和類的問(wèn)題。 對(duì)于大模型,第一件事

    2024年02月08日
    瀏覽(15)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包