国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【大模型】基于 LlaMA2 的高 star 的 GitHub 開源項(xiàng)目匯總

這篇具有很好參考價(jià)值的文章主要介紹了【大模型】基于 LlaMA2 的高 star 的 GitHub 開源項(xiàng)目匯總。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

Llama2 簡介

2023年7月19日:Meta 發(fā)布開源可商用模型 Llama2。

Llama2 是一個(gè)預(yù)訓(xùn)練和微調(diào)的生成文本模型的集合,其規(guī)模從70億到700億個(gè)參數(shù)不等。

LLaMA2 的詳細(xì)介紹可以參考這篇文章:【大模型】更強(qiáng)的 LLaMA2 來了,開源可商用、與 ChatGPT 齊平

下面介紹幾個(gè)高 star 的 GitHub 開源項(xiàng)目:

star 數(shù)量截止日期2023年8月23日

開源項(xiàng)目匯總

NO1. FlagAlpha/Llama2-Chinese

  • star:4.2K

  • GitHub地址:
    https://github.com/FlagAlpha/Llama2-Chinese

  • 介紹:
    Llama中文社區(qū),最好的中文Llama大模型,完全開源可商用。

  • 良好的社區(qū)
    【大模型】基于 LlaMA2 的高 star 的 GitHub 開源項(xiàng)目匯總,大語言模型,llama2,大模型開源項(xiàng)目

  • 開放且不斷增加的數(shù)據(jù)
    【大模型】基于 LlaMA2 的高 star 的 GitHub 開源項(xiàng)目匯總,大語言模型,llama2,大模型開源項(xiàng)目

  • 開源可下載可商用的模型
    我們基于中文指令數(shù)據(jù)集對Llama2-Chat模型進(jìn)行了微調(diào),使得Llama2模型有著更強(qiáng)的中文對話能力。LoRA參數(shù)以及與基礎(chǔ)模型合并的參數(shù)均已上傳至Hugging Face https://huggingface.co/FlagAlpha,目前包含7B和13B的模型。

【大模型】基于 LlaMA2 的高 star 的 GitHub 開源項(xiàng)目匯總,大語言模型,llama2,大模型開源項(xiàng)目

  • 詳細(xì)的模型微調(diào)過程
    【大模型】基于 LlaMA2 的高 star 的 GitHub 開源項(xiàng)目匯總,大語言模型,llama2,大模型開源項(xiàng)目
  • 其他
    包括:模型量化、推理假設(shè)、模型評測、集成LangChain框架等

NO2. hiyouga/LLaMA-Efficient-Tuning

  • star:3.2K

  • GitHub地址:
    https://github.com/hiyouga/LLaMA-Efficient-Tuning

  • 介紹:
    Easy-to-use LLM fine-tuning framework (LLaMA-2, BLOOM, Falcon, Baichuan, Qwen, ChatGLM2)

  • 開放且不斷增加的數(shù)據(jù)
    【大模型】基于 LlaMA2 的高 star 的 GitHub 開源項(xiàng)目匯總,大語言模型,llama2,大模型開源項(xiàng)目

  • 開源可下載可商用的模型,且支持很多開源模型
    【大模型】基于 LlaMA2 的高 star 的 GitHub 開源項(xiàng)目匯總,大語言模型,llama2,大模型開源項(xiàng)目

  • 支持多種模型訓(xùn)練、微調(diào)方法
    【大模型】基于 LlaMA2 的高 star 的 GitHub 開源項(xiàng)目匯總,大語言模型,llama2,大模型開源項(xiàng)目
    支持單卡訓(xùn)練、分布式多級多卡并行訓(xùn)練,腳本很詳細(xì),建議看作者的GitHub。

NO3. yangjianxin1/Firefly

  • star:2.1K

  • GitHub地址:
    https://github.com/yangjianxin1/Firefly

  • 介紹:
    Firefly(流螢): 中文對話式大語言模型(全量微調(diào)+QLoRA),支持微調(diào)Llma2、Llama、Qwen、Baichuan、ChatGLM2、InternLM、Ziya、Bloom等大模型

  • 本項(xiàng)目主要內(nèi)容如下:

    ?? 支持全量參數(shù)指令微調(diào)、QLoRA低成本高效指令微調(diào)、LoRA指令微調(diào)(后續(xù)將會提供支持)。
    ?? 支持絕大部分主流的開源大模型,如百川baichuan、Ziya、Bloom、LLaMA等。
    ?? 支持lora與base model進(jìn)行權(quán)重合并,推理更便捷。
    ??? 模型裁剪:通過LLMPruner:大語言模型裁剪工具 ,開源裁剪后的Bloom模型權(quán)重 。在保留預(yù)訓(xùn)練中文知識的前提下,有效減少模型參數(shù)量,降低訓(xùn)練成本,提高訓(xùn)練效率。
    ?? 整理并開源指令微調(diào)數(shù)據(jù)集:firefly-train-1.1M 、moss-003-sft-data、ultrachat、 WizardLM_evol_instruct_V2_143k、school_math_0.25M。
    ?? 開源Firefly系列指令微調(diào)模型權(quán)重 。

  • 開放且不斷增加的數(shù)據(jù)
    【大模型】基于 LlaMA2 的高 star 的 GitHub 開源項(xiàng)目匯總,大語言模型,llama2,大模型開源項(xiàng)目

  • 開源可下載可商用的模型
    【大模型】基于 LlaMA2 的高 star 的 GitHub 開源項(xiàng)目匯總,大語言模型,llama2,大模型開源項(xiàng)目

  • 詳細(xì)的模型微調(diào)過程
    目前支持全量參數(shù)指令微調(diào)、QLoRA指令微調(diào),后續(xù)會添加對LoRA的支持(經(jīng)過實(shí)測,QLoRA的效率與效果優(yōu)于LoRA)。
    【大模型】基于 LlaMA2 的高 star 的 GitHub 開源項(xiàng)目匯總,大語言模型,llama2,大模型開源項(xiàng)目

【大模型】基于 LlaMA2 的高 star 的 GitHub 開源項(xiàng)目匯總,大語言模型,llama2,大模型開源項(xiàng)目

  • 其他
    包括:權(quán)重合并、模型推理等

NO4. LinkSoul-AI/Chinese-Llama-2-7b

  • star:1.7K

  • GitHub地址:
    https://github.com/LinkSoul-AI/Chinese-Llama-2-7b

  • 介紹:
    開源社區(qū)第一個(gè)能下載、能運(yùn)行的中文 LLaMA2 模型!
    全部開源,完全可商用的中文版 Llama2 模型及中英文 SFT 數(shù)據(jù)集,輸入格式嚴(yán)格遵循 llama-2-chat 格式,兼容適配所有針對原版 llama-2-chat 模型的優(yōu)化。

  • 開放且不斷增加的數(shù)據(jù)
    我們使用了中英文 SFT 數(shù)據(jù)集,數(shù)據(jù)量 1000 萬。
    數(shù)據(jù)集:https://huggingface.co/datasets/LinkSoul/instruction_merge_set

  • 開源可下載可商用的模型
    【大模型】基于 LlaMA2 的高 star 的 GitHub 開源項(xiàng)目匯總,大語言模型,llama2,大模型開源項(xiàng)目

  • 詳細(xì)的模型微調(diào)過程

DATASET="LinkSoul/instruction_merge_set"

DATA_CACHE_PATH="hf_datasets_cache"
MODEL_PATH="/PATH/TO/TRANSFORMERS/VERSION/LLAMA2"

output_dir="./checkpoints_llama2"

torchrun --nnodes=1 --node_rank=0 --nproc_per_node=8 \
    --master_port=25003 \
        train.py \
        --model_name_or_path ${MODEL_PATH} \
        --data_path ${DATASET} \
        --data_cache_path ${DATA_CACHE_PATH} \
        --bf16 True \
        --output_dir ${output_dir} \
        --num_train_epochs 1 \
        --per_device_train_batch_size 4 \
        --per_device_eval_batch_size 4 \
        --gradient_accumulation_steps 1 \
        --evaluation_strategy 'no' \
        --save_strategy 'steps' \
        --save_steps 1200 \
        --save_total_limit 5 \
        --learning_rate 2e-5 \
        --weight_decay 0. \
        --warmup_ratio 0.03 \
        --lr_scheduler_type cosine \
        --logging_steps 1 \
        --fsdp 'full_shard auto_wrap' \
        --fsdp_transformer_layer_cls_to_wrap 'LlamaDecoderLayer' \
        --tf32 True \
        --model_max_length 4096 \
        --gradient_checkpointing True

NO5. wenge-research/YaYi

  • star:1.5K

  • GitHub地址:
    https://github.com/wenge-research/YaYi

  • 介紹:
    雅意大模型在百萬級人工構(gòu)造的高質(zhì)量領(lǐng)域數(shù)據(jù)上進(jìn)行指令微調(diào)得到,訓(xùn)練數(shù)據(jù)覆蓋媒體宣傳、輿情分析、公共安全、金融風(fēng)控、城市治理等五大領(lǐng)域,上百種自然語言指令任務(wù)。雅意大模型從預(yù)訓(xùn)練初始化權(quán)重到領(lǐng)域模型的迭代過程中,我們逐步增強(qiáng)了它的中文基礎(chǔ)能力和領(lǐng)域分析能力,并增加了多輪對話和部分插件能力。同時(shí),經(jīng)過數(shù)百名用戶內(nèi)測過程中持續(xù)不斷的人工反饋優(yōu)化,我們進(jìn)一步提升了模型性能和安全性。

    通過雅意大模型的開源為促進(jìn)中文預(yù)訓(xùn)練大模型開源社區(qū)的發(fā)展,貢獻(xiàn)自己的一份力量,通過開源,與每一位合作伙伴共建雅意大模型生態(tài)。

    News: ?? 雅意大模型已開源基于 LLaMA 2 的中文優(yōu)化模型版本,探索適用于中文多領(lǐng)域任務(wù)的最新實(shí)踐。

  • 開放且不斷增加的數(shù)據(jù)
    雅意大模型基于中科聞歌百萬級高質(zhì)量領(lǐng)域指令微調(diào)數(shù)據(jù)集訓(xùn)練而來,我們本次開源 5w 條訓(xùn)練數(shù)據(jù)集,可在我們的 Huggingface 數(shù)據(jù)倉庫 https://huggingface.co/wenge-research 下載。數(shù)據(jù)集主要涵蓋了金融、安全、輿情、媒體等幾大領(lǐng)域,我們?yōu)楦黝I(lǐng)域任務(wù)大部分指令數(shù)據(jù)添加了離散 prompt 前綴,以區(qū)分各領(lǐng)域數(shù)據(jù)。此外,訓(xùn)練數(shù)據(jù)中還包含部分安全增強(qiáng)數(shù)據(jù)、插件能力數(shù)據(jù)、多輪對話數(shù)據(jù)等。

  • 開源可下載可商用的模型
    【大模型】基于 LlaMA2 的高 star 的 GitHub 開源項(xiàng)目匯總,大語言模型,llama2,大模型開源項(xiàng)目

  • 詳細(xì)的模型微調(diào)過程

    1. 指令數(shù)據(jù)全參數(shù)微調(diào)
    2. 指令數(shù)據(jù) LoRA 微調(diào)
    3. 多輪對話數(shù)據(jù)全參數(shù)微調(diào)
    4. 多輪對話數(shù)據(jù) LoRA 微調(diào)

NO6. michael-wzhu/Chinese-LlaMA2

  • star:686

  • GitHub地址:
    https://github.com/michael-wzhu/Chinese-LlaMA2

  • 介紹:
    就在不久前,Meta最新開源了Llama 2模型,完全可商用,看來Meta勢必要與OpenAI (ClosedAI) 硬剛到底。雖然Llama 2對原版的LlaMA模型做了升級,但是其仍然對中文沒有太好的支持,需要在中文上做定制化。所以我們決定在次開展Llama 2的中文漢化工作:

    ?? Chinese-LlaMA2-chat-sft:對Llama-2直接進(jìn)行有監(jiān)督微調(diào),
    采用開源指令微調(diào)數(shù)據(jù),如UltraChat, 各種版本的中文alpaca語料(如Chinese-alpaca, BELLE)等;
    注意LlaMA詞表本身是支持中文的,所以我們會訓(xùn)練不擴(kuò)充詞表版本和擴(kuò)充詞表版本
    ? Chinese-LlaMA2: 對Llama 2進(jìn)行大規(guī)模中文預(yù)訓(xùn)練;
    第一步:先在42G中文語料上進(jìn)行訓(xùn)練;后續(xù)將會加大訓(xùn)練規(guī)模
    ? Chinese-LlaMA2-chat: 對Chinese-LlaMA2進(jìn)行指令微調(diào)和多輪對話微調(diào),以適應(yīng)各種應(yīng)用場景和多輪對話交互。
    注意,遵循相應(yīng)的許可,我們將發(fā)布完整的, 合并LoRA權(quán)重的完整,且同時(shí)發(fā)布LoRA權(quán)重,方便開源社區(qū)使用。

    同時(shí),我們將會圍繞Chinese-LlaMA2打造各種垂直領(lǐng)域模型:

    ?Chinese-LlaMA2-chatmed: Chinese-LlaMA2醫(yī)學(xué)領(lǐng)域大模型,支持多輪在線問診;
    ?Chinese-LlaMA2-tcm: Chinese-LlaMA2中醫(yī)藥大模型,專注于中醫(yī)藥細(xì)分領(lǐng)域,賦能中醫(yī)藥傳承

    【】后續(xù)工作值得期待

  • 團(tuán)隊(duì)介紹
    本項(xiàng)目由華東師范大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院智能知識管理與服務(wù)團(tuán)隊(duì)完成,團(tuán)隊(duì)指導(dǎo)老師為王曉玲教授。

  • 指令微調(diào)

    對LlaMA-2進(jìn)行指令微調(diào)(不擴(kuò)充詞表/擴(kuò)充詞表),也就是現(xiàn)在常見的SFT,見SFT-README.md

  • 擴(kuò)充詞表和擴(kuò)展embedding層
    我們現(xiàn)在采用的方案是:使用Chinese-LLaMA的詞表,該詞表是對llama原始詞表的擴(kuò)充,將詞匯量從32000擴(kuò)展到49953大小。同時(shí)LlaMA-2模型會進(jìn)行embedding層的resize,即采用隨機(jī)初始化的參數(shù)擴(kuò)展embedding層和lm_head層。

  • 繼續(xù)預(yù)訓(xùn)練
    由于擴(kuò)展詞表后,LlaMA-2的embedding層和lm_head層會有隨機(jī)初始化的參數(shù),所以我們需要采用大規(guī)模的預(yù)訓(xùn)練學(xué)習(xí)中文語料的知識。繼續(xù)預(yù)訓(xùn)練運(yùn)行以下命令(數(shù)據(jù),模型的路徑,卡數(shù)等需要自行配置):文章來源地址http://www.zghlxwxcb.cn/news/detail-685029.html

    CUDA_VISIBLE_DEVICES="2,3" ./src/further_ft/run_train.sh
    

到了這里,關(guān)于【大模型】基于 LlaMA2 的高 star 的 GitHub 開源項(xiàng)目匯總的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包