国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

一文匯總開(kāi)源大語(yǔ)言模型,人人都可以擁有自己的ChatGPT

這篇具有很好參考價(jià)值的文章主要介紹了一文匯總開(kāi)源大語(yǔ)言模型,人人都可以擁有自己的ChatGPT。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

前言

OpenAI發(fā)布的ChatGPT火爆全球以來(lái),全球互聯(lián)網(wǎng)大廠陸續(xù)跟進(jìn),紛紛宣布了自家的Chat產(chǎn)品,如Google的Bard,百度的文心一言,阿里的通義千問(wèn)等等。

這些Chat產(chǎn)品背后都是依賴(lài)的大語(yǔ)言模型(Large Language Model)。

如果是做一個(gè)垂直領(lǐng)域的Chat產(chǎn)品,有2種方案:

  • 直接使用商業(yè)化產(chǎn)品,前提是商業(yè)化產(chǎn)品支持對(duì)模型做fine-tune(微調(diào))。比如OpenAI就支持對(duì)它的基礎(chǔ)模型做fine-tune來(lái)實(shí)現(xiàn)個(gè)性化的模型。
  • 使用開(kāi)源的大語(yǔ)言模型,對(duì)開(kāi)源模型做fine-tune來(lái)實(shí)現(xiàn)垂直領(lǐng)域的Chat產(chǎn)品。

本文重點(diǎn)介紹有較大參考價(jià)值的開(kāi)源大語(yǔ)言模型,方便大家快速找到適合自己應(yīng)用場(chǎng)景的開(kāi)源模型。

開(kāi)源大語(yǔ)言模型

Model 作者 參數(shù)量 訓(xùn)練數(shù)據(jù)量(tokens) 訓(xùn)練成本
LLaMA Meta 包括 70 億、130 億、330 億、650 億 4 種參數(shù)規(guī)模 1.4萬(wàn)億 2048個(gè)A100 GPU
Alpaca Stanford 70億 52k條問(wèn)答指令數(shù)據(jù),指令數(shù)據(jù)來(lái)源于OpenAI的API返回結(jié)果 500美元數(shù)據(jù)成本+100美元訓(xùn)練成本
Vicuna UC Berkeley, CMU, Stanford, UCSD and MBZUAI 130億 70k條問(wèn)答指令數(shù)據(jù),指令數(shù)據(jù)來(lái)源于用戶(hù)分享出來(lái)的對(duì)話(huà)記錄 300美元
Koala UC Berkeley 130億 500k條問(wèn)答直錄功能數(shù)據(jù),指令數(shù)據(jù)來(lái)源于網(wǎng)上公開(kāi)數(shù)據(jù)集 在公共云計(jì)算平臺(tái)上,預(yù)期訓(xùn)練成本不超過(guò)100美元。一臺(tái) Nvidia DGX 服務(wù)器與8個(gè)A100 GPU,需要6個(gè)小時(shí)訓(xùn)練完成2個(gè)epochs。
Dolly 2.0 Databricks 120億 15k條問(wèn)答指令數(shù)據(jù),指令數(shù)據(jù)來(lái)源于Databricks員工 不到30美元
ChatGLM 清華大學(xué)KEG 實(shí)驗(yàn)室和智譜AI 60億和1300億共2種參數(shù)規(guī)模 4000億左右,中文和英文token各2000億 數(shù)百萬(wàn)人民幣
鵬程·盤(pán)古α 鵬程實(shí)驗(yàn)室、華為 26億、130億和2000億共3種參數(shù)規(guī)模 2500億 2048 塊昇騰處理器

開(kāi)源模型有幾個(gè)注意點(diǎn):

  • 第一,LLaMA由Meta開(kāi)源,LLaMA目前僅用于學(xué)術(shù)、社會(huì)公益項(xiàng)目,不能用于商業(yè)化項(xiàng)目。

  • 第二,Alpaca, Vicuna, Koala基于LLaMA衍生而來(lái),是在LLaMA大語(yǔ)言模型基礎(chǔ)上做了fine-tune得到的,因此訓(xùn)練成本極低,只需用比較少的指令數(shù)據(jù)做fine-tune即可。這也是為什么這幾個(gè)模型的訓(xùn)練成本很低,因?yàn)檎驹诹薒LaMA這個(gè)巨人的肩膀上。另外,這幾個(gè)模型由于本質(zhì)上還是LLaMA,受限于LLaMA的license限制,同樣不能用于商業(yè)化目的。

  • Dolly 2.0是在EleutherAI pythia模型衍生而來(lái),指令微調(diào)的數(shù)據(jù)集稱(chēng)為 databricks-dolly-15k,也已開(kāi)源發(fā)布,包含來(lái)自數(shù)千名 Databricks 員工的 15,000 個(gè)高質(zhì)量的人工生成的問(wèn)答數(shù)據(jù),專(zhuān)為指令調(diào)優(yōu)大型語(yǔ)言模型而設(shè)計(jì)。且 databricks-dolly-15k 根據(jù)(Creative Commons Attribution-ShareAlike 3.0 Unported License)的許可條款,任何人都可以出于任何目的使用、修改或擴(kuò)展此數(shù)據(jù)集,包括商業(yè)應(yīng)用。

  • 國(guó)內(nèi)目前開(kāi)源的主要就是清華主導(dǎo)的ChatGLM,以及華為和鵬程實(shí)驗(yàn)室主導(dǎo)的盤(pán)古alpha模型。

訓(xùn)練模型

如果拿大語(yǔ)言模型做訓(xùn)練,而不是簡(jiǎn)單的指令微調(diào),那訓(xùn)練成本非常高昂,比如ChatGPT訓(xùn)練一次的成本在140萬(wàn)美元左右。

最近微軟開(kāi)源了DeepSpeed,可以加速大語(yǔ)言模型的訓(xùn)練,將ChatGPT 1750億參數(shù)模型的訓(xùn)練成本降低到5120美元左右。

其本質(zhì)是一個(gè)開(kāi)源深度學(xué)習(xí)訓(xùn)練優(yōu)化庫(kù),可以加速ChatGPT模型的訓(xùn)練,比目前最快的訓(xùn)練方法快大約15倍,如果想自己訓(xùn)練大語(yǔ)言模型的可以參考下。

總結(jié)

GPT模型現(xiàn)在真的是日新月異,很多是基于基礎(chǔ)模型,結(jié)合問(wèn)答的指令數(shù)據(jù)對(duì)模型做微調(diào)而得到的。

現(xiàn)在很多媒體報(bào)道的時(shí)候喜歡夸大,大家不要看到冒出一個(gè)新的開(kāi)源模型就覺(jué)得多么厲害了,絕大部分都是站在巨人肩膀上做了微調(diào)而來(lái)的。

上面開(kāi)源大語(yǔ)言模型的表格也會(huì)持續(xù)更新,歡迎大家關(guān)注下面的開(kāi)源地址。

開(kāi)源地址

持續(xù)更新的開(kāi)源大語(yǔ)言模型開(kāi)源地址: ChatGPT模型教程。

公眾號(hào):coding進(jìn)階。

個(gè)人網(wǎng)站:Jincheng’s Blog。

知乎:無(wú)忌。

福利

我為大家整理了一份后端開(kāi)發(fā)學(xué)習(xí)資料禮包,包含編程語(yǔ)言入門(mén)到進(jìn)階知識(shí)(Go、C++、Python)、后端開(kāi)發(fā)技術(shù)棧、面試題等。

關(guān)注公眾號(hào)「coding進(jìn)階」,發(fā)送消息 backend 領(lǐng)取資料禮包,這份資料會(huì)不定期更新,加入我覺(jué)得有價(jià)值的資料。還可以發(fā)送消息「進(jìn)群」,和同行一起交流學(xué)習(xí),答疑解惑。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-454612.html

References

  • https://mp.weixin.qq.com/s/7CW4p8RgAF3jYGmgefB_eg
  • https://mp.weixin.qq.com/s/M-ToNk8SABoP2JG0xLUBxQ

到了這里,關(guān)于一文匯總開(kāi)源大語(yǔ)言模型,人人都可以擁有自己的ChatGPT的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶(hù)投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 龍蜥社區(qū)「人人都可以參與開(kāi)源」- 共筑開(kāi)源,共創(chuàng)未來(lái)!

    龍蜥社區(qū)「人人都可以參與開(kāi)源」- 共筑開(kāi)源,共創(chuàng)未來(lái)!

    開(kāi)源不僅僅是代碼的開(kāi)放,更是一種共享與合作的精神。通過(guò)開(kāi)源,我們可以匯集全球的智慧和力量,共同解決技術(shù)難題,推動(dòng)科技創(chuàng)新。開(kāi)源項(xiàng)目的蓬勃發(fā)展,已經(jīng)成為推動(dòng)人類(lèi)社會(huì)進(jìn)步的一大動(dòng)力,無(wú)論是在人工智能、區(qū)塊鏈、云計(jì)算還是物聯(lián)網(wǎng)等領(lǐng)域,都有著無(wú)數(shù)開(kāi)源

    2024年04月17日
    瀏覽(17)
  • 龍蜥社區(qū)「人人都可以參與開(kāi)源」----自由代碼盛會(huì)

    龍蜥社區(qū)「人人都可以參與開(kāi)源」----自由代碼盛會(huì)

    目錄 一、活動(dòng)平臺(tái) 1、賽題-開(kāi)放原子開(kāi)源大賽 2、OpenAnolis Community Activity - OpenAnolis龍蜥操作系統(tǒng)開(kāi)源社區(qū) 3、anolis-activity · AtomGit_開(kāi)放原子開(kāi)源基金會(huì)代碼托管平臺(tái) 二、完成龍蜥任務(wù)的學(xué)習(xí)心得及建議 1、學(xué)習(xí)心得 2、平臺(tái)評(píng)測(cè) ?3、優(yōu)化建議 開(kāi)發(fā)原子開(kāi)源大賽,就是這個(gè)平臺(tái)

    2024年04月16日
    瀏覽(18)
  • 龍蜥社區(qū)「人人都可以參與開(kāi)源」—— 走進(jìn)“龍蜥社區(qū)”感受開(kāi)源魅力

    龍蜥社區(qū)「人人都可以參與開(kāi)源」—— 走進(jìn)“龍蜥社區(qū)”感受開(kāi)源魅力

    ?? 鴿芷咕 :個(gè)人主頁(yè) ??? 個(gè)人專(zhuān)欄 : 《linux深造日志》《粉絲福利》 ??生活的理想,就是為了理想的生活! ?? 開(kāi)源這個(gè)我相信各位開(kāi)發(fā)者們或多或少都聽(tīng)說(shuō)過(guò),簡(jiǎn)單來(lái)講開(kāi)源就是源碼開(kāi)放,但是不意味著使用沒(méi)有限制,具體規(guī)定要根據(jù)軟件的開(kāi)源協(xié)議來(lái)決定。

    2024年04月11日
    瀏覽(20)
  • 龍蜥社區(qū)「人人都可以參與開(kāi)源」——實(shí)現(xiàn)開(kāi)源無(wú)界限,共筑創(chuàng)新生態(tài)

    龍蜥社區(qū)「人人都可以參與開(kāi)源」——實(shí)現(xiàn)開(kāi)源無(wú)界限,共筑創(chuàng)新生態(tài)

    目錄 前言 龍蜥社區(qū)「人人都可以參與開(kāi)源」 關(guān)于AtomGit平臺(tái) 降低參與門(mén)檻,普及開(kāi)源知識(shí) 開(kāi)放透明的協(xié)作環(huán)境與流程 建設(shè)活躍的社區(qū)文化與網(wǎng)絡(luò) 賦能企業(yè)與高校,培育開(kāi)源新生力量 體驗(yàn)心得 結(jié)語(yǔ) 在當(dāng)今數(shù)字化浪潮中,開(kāi)源軟件以其開(kāi)放性、協(xié)作生與的新力,已經(jīng)成為全

    2024年04月13日
    瀏覽(37)
  • 龍蜥社區(qū)「人人都可以參與開(kāi)源」——基于開(kāi)源賽深析AtomGit平臺(tái)特點(diǎn)

    龍蜥社區(qū)「人人都可以參與開(kāi)源」——基于開(kāi)源賽深析AtomGit平臺(tái)特點(diǎn)

    作為一名參與者,我對(duì)于這次任務(wù)的體驗(yàn)深感充實(shí)而有成就感。整個(gè)過(guò)程需要進(jìn)行多個(gè)步驟,從報(bào)名到最終提交作品,每一步都需要細(xì)心操作和確保準(zhǔn)確性。 在完成這項(xiàng)任務(wù)的過(guò)程中,我深刻領(lǐng)悟到了團(tuán)隊(duì)協(xié)作的重要性。盡管這是一個(gè)個(gè)人完成的任務(wù),但在整個(gè)過(guò)程中,我需

    2024年04月14日
    瀏覽(26)
  • 使用大語(yǔ)言模型集成工具 LangChain 創(chuàng)建自己的論文匯總和查詢(xún)工具

    使用大語(yǔ)言模型集成工具 LangChain 創(chuàng)建自己的論文匯總和查詢(xún)工具

    Langchain可以幫助開(kāi)發(fā)人員構(gòu)建由大型語(yǔ)言模型(llm)支持的應(yīng)用程序。它提供一個(gè)框架將LLM與其他數(shù)據(jù)源(如互聯(lián)網(wǎng)或個(gè)人文件)連接起來(lái)。這允許開(kāi)發(fā)人員將多個(gè)命令鏈接在一起,以創(chuàng)建更復(fù)雜的應(yīng)用程序。包括最近比較火爆的AutoGPT等都是使用了Langchain框架進(jìn)行開(kāi)發(fā)的。所以本

    2024年02月05日
    瀏覽(24)
  • 【AI實(shí)戰(zhàn)】開(kāi)源大語(yǔ)言模型LLMs匯總

    【AI實(shí)戰(zhàn)】開(kāi)源大語(yǔ)言模型LLMs匯總

    大語(yǔ)言模型(LLM)是指使用大量文本數(shù)據(jù)訓(xùn)練的深度學(xué)習(xí)模型,可以生成自然語(yǔ)言文本或理解語(yǔ)言文本的含義。大語(yǔ)言模型可以處理多種自然語(yǔ)言任務(wù),如文本分類(lèi)、問(wèn)答、對(duì)話(huà)等,是通向人工智能的一條重要途徑。來(lái)自百度百科 發(fā)展歷史 2020年9月,OpenAI授權(quán)微軟使用GPT-3模

    2024年02月12日
    瀏覽(55)
  • 開(kāi)源大語(yǔ)言模型(LLM)匯總(持續(xù)更新中)

    開(kāi)源大語(yǔ)言模型(LLM)匯總(持續(xù)更新中)

    隨著ChatGPT的火爆,越來(lái)越多人希望在本地運(yùn)行一個(gè)大語(yǔ)言模型。為此我維護(hù)了這個(gè)開(kāi)源大語(yǔ)言模型匯總,跟蹤每天不發(fā)的大語(yǔ)言模型和精調(diào)語(yǔ)言模型。 我將根據(jù)個(gè)模型采用的基礎(chǔ)大模型進(jìn)行分類(lèi),每個(gè)大模型下列出各派生模型。 斯坦福Alpaca:一種指令遵從型 LLaMA 模型。 ??

    2023年04月17日
    瀏覽(20)
  • 開(kāi)源大語(yǔ)言模型是否可以商用的調(diào)查報(bào)告

    ChatGPT 火起來(lái)了,很多企業(yè)想用 ChatGPT,但是又由于企業(yè)數(shù)據(jù)的保密性,所以本地部署開(kāi)源大語(yǔ)言模型是不二之選。 各個(gè)企業(yè)本地部署大語(yǔ)言模型的第一步,就是調(diào)研哪些開(kāi)源大語(yǔ)言模型可以商用。 本文對(duì)模型是否可以商用,主要調(diào)查了各個(gè)開(kāi)源模型的許可內(nèi)容及Model許可內(nèi)

    2024年02月10日
    瀏覽(21)
  • 云服務(wù)器部署開(kāi)源ChatGLM-6B,讓你也能擁有自己的ChatGPT

    云服務(wù)器部署開(kāi)源ChatGLM-6B,讓你也能擁有自己的ChatGPT

    一、背景 最近GPT不僅發(fā)布了GPT-4,而且解除封印可以聯(lián)網(wǎng)了。不得不贊嘆AI更新迭代的速度真快,都跟不上節(jié)奏了。但是大家也注意到了吧,隨著GPT的每次更新,OpenAI對(duì)其開(kāi)放使用的限制也越來(lái)越大。之前國(guó)內(nèi)網(wǎng)隨便訪問(wèn)GPT3,現(xiàn)在動(dòng)不動(dòng)就封號(hào) 所以,今天就來(lái)教大家部署國(guó)內(nèi)

    2024年02月12日
    瀏覽(52)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包