国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

LLaMA模型微調(diào)版本 Vicuna 和 Stable Vicuna 解讀

這篇具有很好參考價值的文章主要介紹了LLaMA模型微調(diào)版本 Vicuna 和 Stable Vicuna 解讀。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

LLaMA模型微調(diào)版本 Vicuna 和 Stable Vicuna 解讀

Vicuna和StableVicuna都是LLaMA的微調(diào)版本,均遵循CC BY-NC-SA-4.0協(xié)議,性能方面Stable版本更好些。

CC BY-NC-SA-4.0是一種知識共享許可協(xié)議,其全稱為"署名-非商業(yè)性使用-相同方式共享 4.0 國際"。

即 用的時候要署名原作者,不能商用,下游使用也必須是相同的共享原則。

Vicuna

Vicuna(小羊駝、駱馬)是LLaMA的指令微調(diào)版本模型,來自UC伯克利,代表模型為Vicuna-13B。

  • 博客:Vicuna: An Open-Source Chatbot Impressing GPT-4 with 90% ChatGPT Quality
  • 項目代碼:https://github.com/lm-sys/FastChat
  • 評估方法Paper:https://arxiv.org/pdf/2306.05685.pdf

訓(xùn)練過程

用ShareGPT網(wǎng)站的用戶分享的ChatGPT對話記錄,70k條對話數(shù)據(jù)對 LLaMA進行監(jiān)督質(zhì)量微調(diào)訓(xùn)練,性能超越了LLaMa和Stanford Alpaca,達到了與ChatGPT相似的水平。

LLaMA模型微調(diào)版本 Vicuna 和 Stable Vicuna 解讀

  1. 從ShareGPT上扒了70k對話語料,將HTML數(shù)據(jù)轉(zhuǎn)化為markdown并對不合適、低質(zhì)量的樣本進行了過濾,同時對比較長的數(shù)據(jù)進行了切分,來適應(yīng)模型的上下文長度;
  2. 用Alpaca的代碼進行多輪對話訓(xùn)練,使用8-A100,基于Pytorch FSDP訓(xùn)練框架訓(xùn)一天;
    1. **多輪對話訓(xùn)練:**任務(wù)還是next token prediction,同時loss只計算文本中chatbot輸出的部分;
    2. **顯存優(yōu)化:**將最大上下文長度從alpac的512調(diào)整為2048,然后用 [gradient checkpointing](https://lmsys.org/blog/2023-03-30-vicuna/#:~:text=gradient checkpointing) 和 flash attention 進行了顯存節(jié)省。
    3. 省錢:作者使用SkyPilot的算力計算的,就使用了SkyPilot managed spot來降低成本,利用更便宜的spot實例來自動恢復(fù)搶占和自動區(qū)域切換。13B模型能從$1K節(jié)省到$300。
  3. 在評估模型方面,之前的評估方式對現(xiàn)在的對話模型不再適用了,作者用MT-Betch一個多輪對話數(shù)據(jù)集ChatBot Arena(聊天機器人競技場)的眾包平臺進行評估。眾包平臺上是真實的用戶來進行打分,另外因為GPT-4是基于強化學(xué)習(xí)與人類反饋(RLHF)訓(xùn)練出來的模型,具有較好的與人對齊的能力,所以作者用GPT-4也代替人對其他模型進行評判,從而節(jié)省成本。具體可作者論文 Judging LLM-as-a-judge with MT-Bench and Chatbot Arena。

現(xiàn)有不足

  1. 推理能力、數(shù)學(xué)能力不足;
  2. 自我感知能力不夠、幻覺問題仍然存在;
  3. 模型本身可能存在潛在的偏見(比如某些言論不正確,畢竟數(shù)據(jù)集決定了模型的立場)

Stable Vicuna

Stable Vicuna: https://github.com/Stability-AI/StableLM

基于 Vicuna-13B v0 的RLHF微調(diào)版本,由StabilityAI發(fā)布。沒有訓(xùn)練細節(jié)紕漏,但應(yīng)該比 Vicuna 要更優(yōu)一些。文章來源地址http://www.zghlxwxcb.cn/news/detail-512699.html

到了這里,關(guān)于LLaMA模型微調(diào)版本 Vicuna 和 Stable Vicuna 解讀的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • LLaMA模型微調(diào)版本:斯坦福 Alpaca 詳解

    LLaMA模型微調(diào)版本:斯坦福 Alpaca 詳解

    項目代碼:https://github.com/tatsu-lab/stanford_alpaca 博客介紹:https://crfm.stanford.edu/2023/03/13/alpaca.html Alpaca 是 LLaMA-7B 的微調(diào)版本,使用Self-instruct[2]方式借用text-davinct-003構(gòu)建了52K的數(shù)據(jù),同時在其構(gòu)建策略上做了一些修改。 性能上作者對Alpaca進行了評估,與openai的text-davinct-003模型在

    2024年02月16日
    瀏覽(30)
  • 類ChatGPT項目的部署與微調(diào)(上):從LLaMA到Alpaca、Vicuna、BELLE

    類ChatGPT項目的部署與微調(diào)(上):從LLaMA到Alpaca、Vicuna、BELLE

    近期,除了研究ChatGPT背后的各種技術(shù)細節(jié) 不斷看論文(至少100篇,100篇目錄見此:ChatGPT相關(guān)技術(shù)必讀論文100篇),還開始研究一系列開源模型(包括各自對應(yīng)的模型架構(gòu)、訓(xùn)練方法、訓(xùn)練數(shù)據(jù)、本地私有化部署、硬件配置要求、微調(diào)等細節(jié))? 本文一開始是作為此文《ChatGPT技術(shù)

    2023年04月12日
    瀏覽(27)
  • 類ChatGPT的部署與微調(diào)(上):從LLaMA、Alpaca/Vicuna/BELLE、中文版

    類ChatGPT的部署與微調(diào)(上):從LLaMA、Alpaca/Vicuna/BELLE、中文版

    近期,除了研究ChatGPT背后的各種技術(shù)細節(jié) 不斷看論文(至少100篇,100篇目錄見此:ChatGPT相關(guān)技術(shù)必讀論文100篇),還開始研究一系列開源模型(包括各自對應(yīng)的模型架構(gòu)、訓(xùn)練方法、訓(xùn)練數(shù)據(jù)、本地私有化部署、硬件配置要求、微調(diào)等細節(jié))? 本文一開始是作為此文《ChatGPT技術(shù)

    2024年02月04日
    瀏覽(33)
  • 類ChatGPT的部署與微調(diào)(上):LLaMA到Alpaca、Vicuna、BELLE、中文版

    類ChatGPT的部署與微調(diào)(上):LLaMA到Alpaca、Vicuna、BELLE、中文版

    近期,除了研究ChatGPT背后的各種技術(shù)細節(jié) 不斷看論文(至少100篇,100篇目錄見此:ChatGPT相關(guān)技術(shù)必讀論文100篇),還開始研究一系列開源模型(包括各自對應(yīng)的模型架構(gòu)、訓(xùn)練方法、訓(xùn)練數(shù)據(jù)、本地私有化部署、硬件配置要求、微調(diào)等細節(jié))? 本文一開始是作為此文《ChatGPT技術(shù)

    2023年04月25日
    瀏覽(24)
  • 類ChatGPT的部署與微調(diào)(上):從TRL到LLaMA、Alpaca/Vicuna/BELLE、中文版

    類ChatGPT的部署與微調(diào)(上):從TRL到LLaMA、Alpaca/Vicuna/BELLE、中文版

    近期,除了研究ChatGPT背后的各種技術(shù)細節(jié) 不斷看論文(至少100篇,100篇目錄見此:ChatGPT相關(guān)技術(shù)必讀論文100篇),還開始研究一系列開源模型(包括各自對應(yīng)的模型架構(gòu)、訓(xùn)練方法、訓(xùn)練數(shù)據(jù)、本地私有化部署、硬件配置要求、微調(diào)等細節(jié))? 本文一開始是作為此文《ChatGPT技術(shù)

    2023年04月27日
    瀏覽(22)
  • NLP之LLMs:《Zeno Chatbot Report》的翻譯與解讀—CMU副教授詳測七款個類ChatGPT大模型(GPT-2、LLaMa、Alpaca、Vicuna、MPT-Chat、Coher

    NLP之LLMs:《Zeno Chatbot Report》的翻譯與解讀—CMU副教授詳測七款個類ChatGPT大模型(GPT-2、LLaMa、Alpaca、Vicuna、MPT-Chat、Cohere Command和ChatGPT) 目錄 《Zeno Chatbot Report》的翻譯與解讀—CMU副教授詳細測評七款個類ChatGPT大模型 Overview概覽 Setup設(shè)置 Model Settings模型設(shè)置 Evaluation Metrics評估指

    2024年02月09日
    瀏覽(20)
  • 最新版本 Stable Diffusion 開源 AI 繪畫工具之微調(diào)模型篇

    當你打開模型網(wǎng)站C站后,你可以看到右上角篩選里面有很多不同種類的模型 包括: Checkpoint 、 Textual Inversion 、 Hypernetwork 、 VAE 、 Lora 、 LyCORIS 、 Aesthetic Gradients 等等 其中 Checkpoint 是主模型,所以體積會很大,因為要基于大模型參數(shù)的訓(xùn)練,所以最開始誕生的就是主模型,

    2024年02月08日
    瀏覽(20)
  • 大模型入門(一)—— LLaMa/Alpaca/Vicuna

    大模型入門(一)—— LLaMa/Alpaca/Vicuna

    LLaMa模型是Meta開源的大模型,模型參數(shù)從7B到65B不等,LLaMa-7B在大多數(shù)基準測試上超過了GPT3-173B,而LLaMa-65B和Chinchilla-70B、PaLM-540B相比也極具競爭力。相比于ChatGPT或者GPT4來說,LLaMa可能效果上還有差距,但相比Closed AI,至少LLaMa論文和模型都開源出來了,目前hugging face已集成了

    2024年02月09日
    瀏覽(16)
  • 羊駝系列大模型LLaMa、Alpaca、Vicuna

    羊駝系列大模型LLaMa、Alpaca、Vicuna

    羊駝系列大模型:大模型的安卓系統(tǒng) GPT系列:類比ios系統(tǒng),不開源 LLaMa優(yōu)勢 用到的數(shù)據(jù):大部分英語、西班牙語,少中文 模型下載地址 https://huggingface.co/meta-llama Alpaca是斯坦福從Meta的LLaMA 7B微調(diào)而來的全新模型 (套殼)僅用了52k數(shù)據(jù),性能約等于GPT-3.5。 訓(xùn)練成本奇低,總成本

    2024年01月21日
    瀏覽(49)
  • 使用llama.cpp在本地搭建vicuna 13B語言模型

    使用llama.cpp在本地搭建vicuna 13B語言模型

    有人做了windows下的腳本放到github上了,直接運行就可以了。我在本機試了一下13B的模型能運行,但生成速度非常慢,回復(fù)一個問題基本上要花5分鐘以上的時間。我的機器配置 3900X?32G內(nèi)存。 https://github.com/mps256/vicuna.ps1

    2024年02月11日
    瀏覽(24)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包