国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

自驅(qū)力超強的羊駝?斯坦福微調(diào)LLaMa

這篇具有很好參考價值的文章主要介紹了自驅(qū)力超強的羊駝?斯坦福微調(diào)LLaMa。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

自驅(qū)力超強的羊駝?斯坦福微調(diào)LLaMa

大型“指令調(diào)優(yōu)”語言模型在新任務(wù)上展現(xiàn)了Zero-shot的卓越能力,但嚴(yán)重依賴于人類編寫的指令數(shù)據(jù),而這些數(shù)據(jù)在數(shù)量、多樣性和創(chuàng)造性方面都是有限的。

斯坦??蒲腥藛T引入了self-instruction框架,提高指令遵循能力來自我迭代進化,與InstructGPT的性能相當(dāng),相比原始GPT3提升33%!將大模型與指令對齊再也不用人工標(biāo)注(annotation-free),最后還發(fā)布了他們合成的自生成指令數(shù)據(jù)集,來促進對指令調(diào)優(yōu)的研究。

自我指示self-instruct

self-instruct是一種任務(wù)不可知(task-agnostic)的方法,通過自己生成指令數(shù)據(jù)(指令、輸入和輸出樣本)并使用它進行引導(dǎo)來提高語言模型的指令遵循能力。

自動指示執(zhí)行的流程:
自驅(qū)力超強的羊駝?斯坦福微調(diào)LLaMa

首先準(zhǔn)備好一個小的任務(wù)種子集(每個任務(wù)的一條指令和一個輸入-輸出實例)作為任務(wù)池開始,從任務(wù)池中抽取隨機任務(wù)用于提示語言模型LM(例如GPT3)生成新的指令和實例,再過濾低質(zhì)量或類似的生成,合格的就添加回任務(wù)池。

羊駝Alpaca模型

指令遵循語言模型叫Alpaca羊駝,是在近期Meta開源的LLaMA 7B模型上進行微調(diào)的。語料使用的是text-davinci-003生成的52K指令。stanford_alpaca在GitHub開源,地址見文末。

整體流程圖:
自驅(qū)力超強的羊駝?斯坦福微調(diào)LLaMa

訓(xùn)練過程中,使用了完全分片數(shù)據(jù)并行(Fully Sharded Data Parallel)混合精度(mixed precision) 等訓(xùn)練等技術(shù),硬件方面:在8個80GB A100上對7B LLaMA模型進行微調(diào)3個小時,成本竟然不到100美元!但效果驚人,與InstructGPT_001的性能相當(dāng)。

數(shù)據(jù)集合評估方法

52k數(shù)據(jù)集分布:
自驅(qū)力超強的羊駝?斯坦福微調(diào)LLaMa

模型評估
采用四級評級系統(tǒng),用于分類模型輸出的質(zhì)量,定義如下:
A: 回答是有效和令人滿意的
B:響應(yīng)是可以接受的,但有一些小錯誤或缺陷可以改進
C:響應(yīng)是相關(guān)的,并響應(yīng)指令,但它在內(nèi)容中有重大錯誤。
D:響應(yīng)不相關(guān)或無效,包括重復(fù)輸入,完全不相關(guān)的輸出等。

首發(fā)原文鏈接:

自驅(qū)力超強的羊駝?斯坦福Alpaca媲美text-davinci-003,成本不到600美元!文章來源地址http://www.zghlxwxcb.cn/news/detail-487947.html

到了這里,關(guān)于自驅(qū)力超強的羊駝?斯坦福微調(diào)LLaMa的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 筆記匯總 | 斯坦福 CS229 機器學(xué)習(xí)

    本文為斯坦福大學(xué) CS229 機器學(xué)習(xí)課程學(xué)習(xí)筆記 本文主體部分轉(zhuǎn)載自黃海廣博士,文末已給出鏈接,大家有興趣可以直接訪問筆記首頁,下載對應(yīng)課程資料及作業(yè)代碼 課程官網(wǎng):CS229: Machine Learning (stanford.edu) 課程視頻:Stanford CS229: Machine Learning Course, Lecture 1 - Andrew Ng (Autumn 2

    2024年02月14日
    瀏覽(18)
  • 斯坦福JSKarel編程機器人使用介紹

    斯坦福JSKarel編程機器人使用介紹

    為了避免被編程語言固有的復(fù)雜性所困擾,有一個被稱為卡雷爾(Karel)機器人的微型世界(microworld)的簡化環(huán)境,可以讓編程初學(xué)者從中學(xué)習(xí)理解編程的基本概念,而不必掌握大量無關(guān)的細(xì)節(jié),讓編程初學(xué)者更容易理解編程的要點和思維方式。 斯坦福Karel是一門面向初學(xué)者

    2024年02月05日
    瀏覽(26)
  • 斯坦福人生設(shè)計課——簡略筆記(未完待更新)

    斯坦福人生設(shè)計課——簡略筆記(未完待更新)

    來源: ?爾 · 博內(nèi)特 戴夫 · 伊萬斯 著圖書《人生設(shè)計課》 目錄 一、認(rèn)清當(dāng)下的情況,從四個維度觀察自己的人生 二、平衡人生,但不要走入誤區(qū) 2.1 記錄你的“美好時光日志”: 2.1.1 記錄內(nèi)容: 2.1.2 輔助反思的方法:AEIOU方法 2.1.3 一個小TIPS: 2.1.4 如果你發(fā)現(xiàn)自己當(dāng)下

    2024年02月11日
    瀏覽(22)
  • 【LLM系列】00:斯坦福 Alpaca 模型介紹及其復(fù)現(xiàn)

    【LLM系列】00:斯坦福 Alpaca 模型介紹及其復(fù)現(xiàn)

    西風(fēng)吹老洞庭波,一夜湘君白發(fā)多。醉后不知天在水,滿船清夢壓星河。小伙伴好,我是微信公眾號《小窗幽記機器學(xué)習(xí)》的小編:賣核彈的小女孩。更多、更新文章歡迎關(guān)注微信公眾號:小窗幽記機器學(xué)習(xí)。后續(xù)會持續(xù)輸出模型推理加速、工程部署、LLM、AI藝術(shù)等系列,敬

    2024年02月13日
    瀏覽(21)
  • 斯坦福2023【FrugalGPT】減少大模型的商業(yè)化應(yīng)用成本

    斯坦福2023【FrugalGPT】減少大模型的商業(yè)化應(yīng)用成本

    FrugalGPT: How to Use Large Language Models While Reducing Cost and Improving Performance 這篇文章主要是要解決如何降低調(diào)用大語言模型的成本(ChatGPT)。大模型API調(diào)用成本主要是三方面的:1. prompt cost(輸入的prompt);2. generation cost(輸出的部分);3. 每次調(diào)用的固定開銷(網(wǎng)費等)。不用的模型之前的

    2024年02月06日
    瀏覽(22)
  • 斯坦福| ChatGPT用于生成式搜索引擎的可行性

    斯坦福| ChatGPT用于生成式搜索引擎的可行性

    文|智商掉了一地 隨著 ChatGPT 在文本生成領(lǐng)域邁出了重要一步,Bing 瀏覽器也接入了聊天機器人功能,因此如何保證 Bing Chat 等搜索引擎結(jié)果的精確率和真實性也成為了搜索領(lǐng)域的熱門話題之一。 當(dāng)我們使用搜索引擎時,往往希望搜索結(jié)果能夠真實準(zhǔn)確地反映我們的需求。然

    2024年02月06日
    瀏覽(16)
  • 斯坦福Dan Boneh密碼學(xué)——02 計算密碼與語義安全

    斯坦福Dan Boneh密碼學(xué)——02 計算密碼與語義安全

    語義安全這塊內(nèi)容實在是被書繞暈了,雖然模型就那么一個,但有各種各樣的數(shù)學(xué)符號交織證明,還有官方深奧的語言表述。第一次看是一知半解的,后面勢必還要再返回來精讀幾遍完善筆記。以篇幅來看,語義安全是密碼學(xué)中非常重要的一個版塊。 計算密碼與語義安全 我

    2024年02月08日
    瀏覽(23)
  • 【斯坦?!縁rugalGPT: 如何使用大型語言模型,同時降低成本并提高性能

    【斯坦?!縁rugalGPT: 如何使用大型語言模型,同時降低成本并提高性能

    FrugalGPT: 如何使用大型語言模型,同時降低成本并提高性能 作者:Lingjiao Chen, Matei Zaharia, James Zou 本文介紹了一種新穎的方法,旨在解決使用大型語言模型(LLM)時面臨的成本和性能挑戰(zhàn)。隨著GPT-4和ChatGPT等LLM的日益流行,我們需要找到降低這些模型推理成本的策略。作者強調(diào)

    2024年02月11日
    瀏覽(30)
  • 斯坦福 Stats60:21 世紀(jì)的統(tǒng)計學(xué):前言到第四章

    斯坦福 Stats60:21 世紀(jì)的統(tǒng)計學(xué):前言到第四章

    原文: statsthinking21.github.io/statsthinking21-core-site/index.html 譯者:飛龍 協(xié)議:CC BY-NC-SA 4.0 這本書的目標(biāo)是講述統(tǒng)計學(xué)的故事,以及它如何被全球的研究人員所使用。這是一個與大多數(shù)統(tǒng)計學(xué)入門書籍中講述的故事不同的故事,后者側(cè)重于教授如何使用一套工具來實現(xiàn)非常具體的

    2024年01月18日
    瀏覽(17)
  • 斯坦福發(fā)布 最新 GPT 模型排行榜 AlpacaEval【AI工具免費使用】

    斯坦福發(fā)布 最新 GPT 模型排行榜 AlpacaEval【AI工具免費使用】

    官網(wǎng)地址:https://www.tomchat.fun ?? 支持gpt4 / gpt-3.5 / claude /code-llm ?? 支持 AI繪畫 ?? 每天十次免費使用機會 ?? 無需魔法 GPT-4 登頂商用模型 微軟 WizardLM 登頂開源模型 AlpacaEva 是來自斯坦福的團隊發(fā)布的一款 大語言模型 自動評測系統(tǒng), 它是一種基于 LLM 的全自動評估基準(zhǔn),且

    2024年02月02日
    瀏覽(62)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包