国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

中文大模型 Chinese-LLaMA-Alpaca-2 開源且可以商用

這篇具有很好參考價值的文章主要介紹了中文大模型 Chinese-LLaMA-Alpaca-2 開源且可以商用。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報違法"按鈕提交疑問。

?Meta 開源?LLAMA2 后,國內(nèi)出現(xiàn)了不少以此為基座模型訓(xùn)練的中文模型,這次我們來看看其中一個不錯的中文模型:Chinese-LLaMA-Alpaca-2?。

中文大模型 Chinese-LLaMA-Alpaca-2 開源且可以商用,llama

01

目前在開源大模型中,比較有名的是Meta的LLAMA模型系列和清華的ChatGLM模型。

特別是在中文領(lǐng)域上,ChatGLM模型經(jīng)過中文問答和對話的優(yōu)化,更加符合中文使用者的偏好回答。

我對ChatGLM比較關(guān)注,出來的時候就開始體驗(yàn)和嘗試本地部署,之前有幾篇關(guān)于ChatGLM的文章。

ChatGLM 更新:LongBench—評測長文本理解能力的數(shù)據(jù)集,支持 32k 上下文的 ChatGLM2-6B-32K

快捷部署清華大模型 ChatGLM2-6B,一鍵搞定 HuggingFace Space 空間

ChatGLM2-6B 初體驗(yàn)

自從Meta于7月19日凌晨開源了Llama2,并且可免費(fèi)商用后,國內(nèi)也開始了基于Llama2的中文大模型訓(xùn)練,并推出了相應(yīng)的中文模型。

今天推薦朋友們看看其中一個比較好的中文模型: Chinese-LLaMA-Alpaca-2,它Llama-2的基礎(chǔ)上擴(kuò)充并優(yōu)化了中文詞表,使用了大規(guī)模中文數(shù)據(jù)進(jìn)行增量預(yù)訓(xùn)練,進(jìn)一步提升了中文基礎(chǔ)語義和指令理解能力。

目前已開源的模型:Chinese-LLaMA-2(7B/13B), Chinese-Alpaca-2(7B/13B)。開源地址:

https://github.com/ymcui/Chinese-LLaMA-Alpaca-2

看一下它的對話效果。????????

中文大模型 Chinese-LLaMA-Alpaca-2 開源且可以商用,llama

模型特點(diǎn)

優(yōu)化的中文詞表

在二期中,團(tuán)隊(duì)以一期中文字詞(LLaMA:49953,Alpaca:49954)基礎(chǔ)上的重新設(shè)計了新詞表(大?。?5296),進(jìn)一步提升了中文字詞的覆蓋程度,同時統(tǒng)一了LLaMA/Alpaca的詞表,避免了因混用詞表帶來的問題,以期進(jìn)一步提升模型對中文文本的編解碼效率

基于FlashAttention-2的高效注意力

FlashAttention-2是高效注意力機(jī)制的一種實(shí)現(xiàn),相比其一代技術(shù)具有更快的速度和更優(yōu)化的顯存占用

當(dāng)上下文長度更長時,為了避免顯存爆炸式的增長,使用此類高效注意力技術(shù)尤為重要

所有模型均使用了FlashAttention-2技術(shù)進(jìn)行訓(xùn)練

基于NTK的自適應(yīng)上下文擴(kuò)展技術(shù)

在一期項(xiàng)目中,團(tuán)隊(duì)實(shí)現(xiàn)了基于NTK的上下文擴(kuò)展技術(shù),可在不繼續(xù)訓(xùn)練模型的情況下支持更長的上下文

在上述基礎(chǔ)上,團(tuán)隊(duì)進(jìn)一步設(shè)計了方便的自適應(yīng)經(jīng)驗(yàn)公式,無需針對不同的上下文長度設(shè)置相應(yīng)超參

本項(xiàng)目模型原生支持4K上下文,利用上述技術(shù)可擴(kuò)展至12K,并最高支持?jǐn)U展至18K+(精度有一定損失)

模型在原版Llama-2的基礎(chǔ)上擴(kuò)充并優(yōu)化了中文詞表,使用了大規(guī)模中文數(shù)據(jù)進(jìn)行增量預(yù)訓(xùn)練,進(jìn)一步提升了中文基礎(chǔ)語義和指令理解能力,相比一代相關(guān)模型獲得了顯著性能提升。相關(guān)模型支持FlashAttention-2訓(xùn)練,支持4K上下文并可通過NTK方法最高擴(kuò)展至18K+。

(NTK代表"Neural Tangents Kernel",是一種用于分析神經(jīng)網(wǎng)絡(luò)行為的工具,特別是在深度學(xué)習(xí)中的無窮窄網(wǎng)絡(luò)架構(gòu)。NTK分析的主要目標(biāo)是了解神經(jīng)網(wǎng)絡(luò)在訓(xùn)練過程中的動態(tài)行為,尤其是在網(wǎng)絡(luò)權(quán)重隨機(jī)初始化的情況下,網(wǎng)絡(luò)的輸出如何隨著訓(xùn)練數(shù)據(jù)的變化而變化。

NTK分析的核心思想是,通過使用網(wǎng)絡(luò)的初始權(quán)重和激活函數(shù),可以近似網(wǎng)絡(luò)在訓(xùn)練過程中的行為。這種近似可以將神經(jīng)網(wǎng)絡(luò)視為一個線性的無窮窄網(wǎng)絡(luò),這種網(wǎng)絡(luò)在訓(xùn)練過程中不會發(fā)生非線性變化。這種近似使得可以通過分析線性核函數(shù)的性質(zhì)來研究網(wǎng)絡(luò)的行為,從而更好地理解網(wǎng)絡(luò)的一些特性,如收斂性、泛化能力等。

NTK分析在一些領(lǐng)域中具有應(yīng)用,比如幫助理解神經(jīng)網(wǎng)絡(luò)在訓(xùn)練早期的行為,從而指導(dǎo)訓(xùn)練策略的設(shè)計;還可以用于研究網(wǎng)絡(luò)架構(gòu)的影響、初始化方法的選擇等。然而,需要注意的是,NTK分析是一種近似方法,在某些情況下可能與真實(shí)的神經(jīng)網(wǎng)絡(luò)行為存在一些差異。)

簡化的中英雙語系統(tǒng)提示語

在一期項(xiàng)目中,中文Alpaca系列模型使用了Stanford Alpaca的指令模板和系統(tǒng)提示語

初步實(shí)驗(yàn)發(fā)現(xiàn),Llama-2-Chat系列模型的默認(rèn)系統(tǒng)提示語未能帶來統(tǒng)計顯著的性能提升,且其內(nèi)容過于冗長

本項(xiàng)目中的Alpaca-2系列模型簡化了系統(tǒng)提示語,同時遵循Llama-2-Chat指令模板,以便更好地適配相關(guān)生態(tài)

(Stanford Alpaca是一個大型中文預(yù)訓(xùn)練語言模型,其指令模版(Prompt Template)指的是該模型訓(xùn)練過程中使用的一種指令學(xué)習(xí)機(jī)制。

具體來說,Stanford Alpaca的訓(xùn)練采用了以下方法:

  1. 人工構(gòu)建了大量的中英文指令對,如"翻譯成中文" - "Translate into Chinese"。

  2. 在模型預(yù)訓(xùn)練時,同時輸入這些指令和對應(yīng)的訓(xùn)練文本,讓模型學(xué)習(xí)執(zhí)行特定指令的能力。

  3. 在微調(diào)或使用階段,可以用這些預(yù)定義的指令提示模型執(zhí)行相應(yīng)的語言任務(wù),如翻譯、摘要等。

  4. 用戶也可以自定義新的指令模版,擴(kuò)展模型的能力。

通過這種指令學(xué)習(xí)機(jī)制,Stanford Alpaca可以更好地理解人類的意圖,執(zhí)行符合指令的語言處理任務(wù),提高了模型的適用性和可控性。預(yù)定義的指令模版起到了領(lǐng)域自適應(yīng)的作用。)

模型選擇指引

下面是中文LLaMA-2和Alpaca-2模型的基本對比以及建議使用場景。

中文大模型 Chinese-LLaMA-Alpaca-2 開源且可以商用,llama

從上表看,如果以大模型為核心做應(yīng)用,最好選擇Alpaca-2。比如和模型聊天交互,如果想從一個基座模型,訓(xùn)練一個垂直行業(yè)類的模型,選擇LLaMA-2比較合適。

推理與部署

模型主要支持以下量化、推理和部署方式,具體內(nèi)容請參考官網(wǎng)的對應(yīng)教程。

中文大模型 Chinese-LLaMA-Alpaca-2 開源且可以商用,llama

C-Eval評測??

一個全面的中文基礎(chǔ)模型評估套件,其中驗(yàn)證集包含1.3K個選擇題,測試集包含12.3K個選擇題,涵蓋52個學(xué)科,題目類型為選擇題。實(shí)驗(yàn)結(jié)果以“zero-shot / 5-shot”進(jìn)行呈現(xiàn)。

中文大模型 Chinese-LLaMA-Alpaca-2 開源且可以商用,llama

CMMLU評測

綜合性中文評測數(shù)據(jù)集,專門用于評估語言模型在中文語境下的知識和推理能力,涵蓋了從基礎(chǔ)學(xué)科到高級專業(yè)水平的67個主題,共計11.5K個測試樣例,題目類型為選擇題。

中文大模型 Chinese-LLaMA-Alpaca-2 開源且可以商用,llama

感興趣的朋友,可以去官網(wǎng)下載模型,本地或者云平臺運(yùn)行一下,體驗(yàn)對話效果,和指令執(zhí)行的效果。???

如果自己有開發(fā)基于大模型的應(yīng)用,可以在此基礎(chǔ)上,增加對這個中文模型的調(diào)用支持。??

閱讀推薦:

OpenAI 或于 2024 年底破產(chǎn)?外媒也這么愛標(biāo)題黨

LLama2詳細(xì)解讀 | Meta開源之光LLama2是如何追上ChatGPT的?

免費(fèi)!深夜福利|英偉達(dá)推出NGC目錄 - GPU加速的AI模型和SDK:Llama 2和SDXL

ChatGPT 的“自定義”功能對免費(fèi)用戶開放,在問題信息不足情況下還會反問來獲取必要信息

ChatGPT 微信助手上線!問答更便捷,功能持續(xù)升級中。

人人可拍大片!全AI制作的電影效果炸裂!

Claude 2 解讀 ChatGPT 4 的技術(shù)秘密:細(xì)節(jié):參數(shù)數(shù)量、架構(gòu)、基礎(chǔ)設(shè)施、訓(xùn)練數(shù)據(jù)集、成本

AI人工智能大模型失守!ChatGPT、BARD、BING、Claude 相繼被"提示攻擊"攻陷!

擁抱未來,學(xué)習(xí) AI 技能!關(guān)注我,免費(fèi)領(lǐng)取 AI 學(xué)習(xí)資源。文章來源地址http://www.zghlxwxcb.cn/news/detail-736379.html

到了這里,關(guān)于中文大模型 Chinese-LLaMA-Alpaca-2 開源且可以商用的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【LLM】Windows本地CPU部署民間版中文羊駝模型(Chinese-LLaMA-Alpaca)踩坑記錄

    【LLM】Windows本地CPU部署民間版中文羊駝模型(Chinese-LLaMA-Alpaca)踩坑記錄

    目錄 前言 準(zhǔn)備工作 Git? Python3.9? Cmake 下載模型? 合并模型 部署模型? 想必有小伙伴也想跟我一樣體驗(yàn)下部署大語言模型, 但礙于經(jīng)濟(jì)實(shí)力, 不過民間上出現(xiàn)了大量的量化模型, 我們平民也能體驗(yàn)體驗(yàn)啦~, 該模型可以在筆記本電腦上部署, 確保你電腦至少有16G運(yùn)行內(nèi)存 開原地址

    2024年02月04日
    瀏覽(53)
  • NLP-分詞器:SentencePiece【參考Chinese-LLaMA-Alpaca在通用中文語料上訓(xùn)練的20K中文詞表并與原版LLaMA模型的32K詞表進(jìn)行合并的代碼】

    NLP-分詞器:SentencePiece【參考Chinese-LLaMA-Alpaca在通用中文語料上訓(xùn)練的20K中文詞表并與原版LLaMA模型的32K詞表進(jìn)行合并的代碼】

    隨著ChatGPT迅速出圈,最近幾個月開源的大模型也是遍地開花。目前,開源的大語言模型主要有三大類:ChatGLM衍生的大模型(wenda、ChatSQL等)、LLaMA衍生的大模型(Alpaca、Vicuna、BELLE、Phoenix、Chimera等)、Bloom衍生的大模型(Bloomz、BELLE、Phoenix等)。其中,ChatGLM-6B主要以中英雙

    2024年02月11日
    瀏覽(22)
  • AI-windows下使用llama.cpp部署本地Chinese-LLaMA-Alpaca-2模型

    生成的文件在 .buildbin ,我們要用的是 main.exe , binmain.exe -h 查看使用幫助 本項(xiàng)目基于Meta發(fā)布的可商用大模型Llama-2開發(fā),是中文LLaMAAlpaca大模型的第二期項(xiàng)目,開源了中文LLaMA-2基座模型和Alpaca-2指令精調(diào)大模型。這些模型在原版Llama-2的基礎(chǔ)上擴(kuò)充并優(yōu)化了中文詞表,使用

    2024年04月25日
    瀏覽(33)
  • LLMs:Chinese-LLaMA-Alpaca的簡介(擴(kuò)充中文詞表+增量預(yù)訓(xùn)練+指令精調(diào))、安裝、案例實(shí)戰(zhàn)應(yīng)用之詳細(xì)攻略

    LLMs:Chinese-LLaMA-Alpaca的簡介(擴(kuò)充中文詞表+增量預(yù)訓(xùn)練+指令精調(diào))、安裝、案例實(shí)戰(zhàn)應(yīng)用之詳細(xì)攻略

    LLMs:Chinese-LLaMA-Alpaca的簡介(擴(kuò)充中文詞表+增量預(yù)訓(xùn)練+指令精調(diào))、安裝、案例實(shí)戰(zhàn)應(yīng)用之詳細(xì)攻略 導(dǎo)讀 :2023年4月17日,哈工大訊飛聯(lián)合實(shí)驗(yàn)室,本項(xiàng)目開源了中文LLaMA模型和指令精調(diào)的Alpaca大模型,以進(jìn)一步促進(jìn)大模型在中文NLP社區(qū)的開放研究。 Chinese-LLaMA 在原版LLaMA的基

    2024年01月20日
    瀏覽(28)
  • Chinese-LLaMA-Alpaca代碼實(shí)戰(zhàn)

    Chinese-LLaMA-Alpaca代碼實(shí)戰(zhàn)

    項(xiàng)目地址: https://github.com/ymcui/Chinese-LLaMA-Alpaca 由于LLaMA 原生僅支持 Latin 或 Cyrillic 語系,對于中文支持不是特別理想,并不像ChatGLM 和 Bloom 原生支持中文。但由于LLaMA模型在英文上的效果本身還是不錯的,因此使用 模型詞表擴(kuò)充(中文詞表) ,配合二次預(yù)訓(xùn)練及微調(diào)的方式

    2024年02月09日
    瀏覽(16)
  • Chinese-LLaMA-Alpaca本地搭建(四)

    Chinese-LLaMA-Alpaca本地搭建(四)

    中文羊駝模型只是一些LoRA權(quán)重模型文件,與原版LLaMA模型合并后就可以生成一個完整模型使用了,在這過程中可以不斷訓(xùn)練LoRA權(quán)重模型文件,無限訓(xùn)練后達(dá)到專業(yè)領(lǐng)域的效果,理論上就能投入使用了,但注意禁止商用的問題。 Facebook官方發(fā)布的LLaMA模型禁止商用,并且官方?jīng)]

    2024年02月14日
    瀏覽(19)
  • Chinese-LLaMA-Alpaca本地搭建(三)

    Chinese-LLaMA-Alpaca本地搭建(三)

    中文羊駝模型只是一些LoRA權(quán)重模型文件,與原版LLaMA模型合并后就可以生成一個完整模型使用了,在這過程中可以不斷訓(xùn)練LoRA權(quán)重模型文件,無限訓(xùn)練后達(dá)到專業(yè)領(lǐng)域的效果,理論上就能投入使用了,但注意禁止商用的問題。 Facebook官方發(fā)布的LLaMA模型禁止商用,并且官方?jīng)]

    2024年01月22日
    瀏覽(21)
  • LLMs:Chinese-LLaMA-Alpaca-2的簡介、安裝、案例實(shí)戰(zhàn)應(yīng)用之詳細(xì)攻略

    LLMs:Chinese-LLaMA-Alpaca-2的簡介、安裝、案例實(shí)戰(zhàn)應(yīng)用之詳細(xì)攻略

    LLMs:Chinese-LLaMA-Alpaca-2(基于deepspeed框架)的簡介、安裝、案例實(shí)戰(zhàn)應(yīng)用之詳細(xì)攻略 導(dǎo)讀 :2023年07月31日,哈工大訊飛聯(lián)合實(shí)驗(yàn)室,發(fā)布Chinese-LLaMA-Alpaca-2,本項(xiàng)目基于Meta發(fā)布的可商用大模型 Llama-2 開發(fā),是中文LLaMAAlpaca大模型的第二期項(xiàng)目,開源了中文LLaMA-2 基座模型 和Alpaca

    2024年02月08日
    瀏覽(30)
  • LLMs:Chinese-LLaMA-Alpaca-2(基于deepspeed框架)的簡介、安裝、案例實(shí)戰(zhàn)應(yīng)用之詳細(xì)攻略

    LLMs:Chinese-LLaMA-Alpaca-2(基于deepspeed框架)的簡介、安裝、案例實(shí)戰(zhàn)應(yīng)用之詳細(xì)攻略

    LLMs:Chinese-LLaMA-Alpaca-2(基于deepspeed框架)的簡介、安裝、案例實(shí)戰(zhàn)應(yīng)用之詳細(xì)攻略 導(dǎo)讀 :2023年07月31日,哈工大訊飛聯(lián)合實(shí)驗(yàn)室,發(fā)布Chinese-LLaMA-Alpaca-2,本項(xiàng)目基于Meta發(fā)布的可商用大模型 Llama-2 開發(fā),是中文LLaMAAlpaca大模型的第二期項(xiàng)目,開源了中文LLaMA-2 基座模型 和Alpaca

    2024年02月08日
    瀏覽(18)
  • LLMs之Chinese-LLaMA-Alpaca-2:源碼解讀(run_clm_sft_with_peft.py文件)—模型訓(xùn)練前置工作(參數(shù)解析+配置日志)→模型初始化(檢測是否存在訓(xùn)練過的che

    LLMs之Chinese-LLaMA-Alpaca-2:源碼解讀(run_clm_sft_with_peft.py文件)—模型訓(xùn)練前置工作(參數(shù)解析+配置日志)→模型初始化(檢測是否存在訓(xùn)練過的checkpoint+加載預(yù)訓(xùn)練模型和tokenizer)→數(shù)據(jù)預(yù)處理(監(jiān)督式任務(wù)的數(shù)據(jù)收集器+指令數(shù)據(jù)集【json格式】)→優(yōu)化模型配置(量化模塊+匹配模型voca

    2024年02月06日
    瀏覽(23)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包