国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Mistral AI發(fā)布首個(gè)開源MoE模型,魔搭社區(qū)推理微調(diào)最佳實(shí)踐來啦!

這篇具有很好參考價(jià)值的文章主要介紹了Mistral AI發(fā)布首個(gè)開源MoE模型,魔搭社區(qū)推理微調(diào)最佳實(shí)踐來啦!。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

原文:Mistral AI發(fā)布首個(gè)開源MoE模型,魔搭社區(qū)推理微調(diào)最佳實(shí)踐來啦! - 知乎

導(dǎo)讀

繼Mistral 7B 后,Mistral AI 近日又放出一記大招——發(fā)布了引爆開源社區(qū)的首個(gè) MoE 開源模型 Mixtral 8x7B,在 Apache 2.0 許可證下可商用。Mixtral-8x7B 是一款混合專家模型(Mixtrue of Experts),由8個(gè)擁有70億參數(shù)的專家網(wǎng)絡(luò)組成,這種結(jié)構(gòu)不僅提高了模型處理信息的效率,還降低了運(yùn)行成本。

在能力上,Mixtral-8x7B 支持 32k token 上下文長度,支持英語、法語、意大利語、德語和西班牙語,擁有優(yōu)秀的代碼生成能力,可微調(diào)為指令跟隨模型(Mixtral 8x7B Instruct,已同步開源),在 MT-Bench 上達(dá)到 8.3 分,達(dá)到了可媲美GPT3.5的水平。

mixtral,aigc,大模型,人工智能,開源,chatgpt,AIGC

Mixtral-8x7B?在大多數(shù)Benchmarks中表現(xiàn)

與 Llama2 70B 和 GPT3.5相當(dāng),甚至部分項(xiàng)上更優(yōu)于二者

Mixtral 擁有46.7B的總參數(shù)量,但每個(gè)token只使用 12.9B參數(shù),也就是說,Mixtral的實(shí)際執(zhí)行速度和所需的成本和一個(gè)12.9B的模型相當(dāng)。下圖展示了官方公布的模型生成質(zhì)量與推理消耗成本的關(guān)系,與Llama 2相比,Mistral 7B和Mixtral 8x7B表現(xiàn)出自己高能效的優(yōu)勢。

mixtral,aigc,大模型,人工智能,開源,chatgpt,AIGC

目前魔搭社區(qū)已經(jīng)支持?Mixtral-8x7B、Mixtral-8x7B-Instruct 的下載、推理、微調(diào)一站式體驗(yàn),并提供對應(yīng)最佳實(shí)踐教程,歡迎感興趣的開發(fā)者小伙伴們來玩

環(huán)境配置與安裝

  1. python 3.8及以上版本
  2. pytorch 1.12及以上版本,推薦2.0及以上版本
  3. 建議使用CUDA 11.4及以上
  4. transformers>=4.36.0

本文主要演示的模型為?Mixtral-8x7B-v0.1?和?Mixtral-8x7B-Instruct-v0.1?兩個(gè)MoE模型。這兩個(gè)模型參數(shù)量大概是47B左右。半徑度訓(xùn)練和推理均需要兩張A100,或同等顯存(約90G~120G顯存)。

模型鏈接和下載

Mixtral-MoE系列模型現(xiàn)已在ModelScope社區(qū)開源,包括:

Mixtral-8x7B-v0.1模型:

https://www.modelscope.cn/models/AI-ModelScope/Mixtral-8x7B-v0.1/summary

Mixtral-8x7B-Instruct-v0.1模型:

https://www.modelscope.cn/models/AI-ModelScope/Mixtral-8x7B-Instruct-v0.1/summary

社區(qū)支持直接下載模型的repo:

from modelscope import snapshot_download
model_dir1 = snapshot_download("AI-ModelScope/Mixtral-8x7B-v0.1", revision = "master")
model_dir2 = snapshot_download("AI-ModelScope/Mixtral-8x7B-Instruct-v0.1", revision = "master")

值得一提的是,魔搭社區(qū)同步上線了Mistral-7B-Instruct-v0.2的新模型:

https://www.modelscope.cn/models/AI-ModelScope/Mistral-7B-Instruct-v0.2/summary

社區(qū)支持直接下載模型的repo:

from modelscope import snapshot_download
model_dir1 = snapshot_download("AI-ModelScope/Mistral-7B-Instruct-v0.2", revision = "master")

Mixtral模型推理

Mixtral-8x7B-v0.1推理代碼:

from modelscope import AutoModelForCausalLM, AutoTokenizer
import torch

model_id = "AI-ModelScope/Mixtral-8x7B-v0.1"
tokenizer = AutoTokenizer.from_pretrained(model_id)

model = AutoModelForCausalLM.from_pretrained(model_id, device_map='auto', torch_dtype=torch.float16)

text = "Hello my name is"
inputs = tokenizer(text, return_tensors="pt")

outputs = model.generate(**inputs, max_new_tokens=20)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

Mixtral-8x7B-Instruct-v0.1推理代碼:

from modelscope import AutoModelForCausalLM, AutoTokenizer
import torch

model_id = "AI-ModelScope/Mixtral-8x7B-Instruct-v0.1"
tokenizer = AutoTokenizer.from_pretrained(model_id)

model = AutoModelForCausalLM.from_pretrained(model_id, device_map='auto', torch_dtype=torch.float16)

text = "Hello my name is"
inputs = tokenizer(text, return_tensors="pt")

outputs = model.generate(**inputs, max_new_tokens=20)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

資源消耗:

mixtral,aigc,大模型,人工智能,開源,chatgpt,AIGC

Mixtral模型微調(diào)和微調(diào)后推流

微調(diào)代碼開源地址:

https://github.com/modelscope/swift/tree/main/examples/pytorch/llm

clone swift倉庫并安裝SWIFT(魔搭官方提供的訓(xùn)練推理框架)

# 設(shè)置pip全局鏡像和安裝相關(guān)的python包
pip config set global.index-url https://mirrors.aliyun.com/pypi/simple/
git clone https://github.com/modelscope/swift.git
cd swift
pip install .[llm]
# 下面的腳本需要在此目錄下執(zhí)行
cd examples/pytorch/llm

模型微調(diào)腳本

由于模型尺寸較大,因此我們支持了基于LoRA的訓(xùn)練,精度使用了半精度。

  1. Mixtral-8x7B-v0.1模型
# Experimental environment: 2 * A100
# 2 * 50GB GPU memory
PYTHONPATH=../../.. \
CUDA_VISIBLE_DEVICES=0,1 \
python llm_sft.py \
    --model_id_or_path AI-ModelScope/Mixtral-8x7B-v0.1 \
    --model_revision master \
    --sft_type lora \
    --tuner_backend swift \
    --dtype AUTO \
    --output_dir output \
    --ddp_backend nccl \
    --dataset dureader-robust-zh \
    --train_dataset_sample -1 \
    --num_train_epochs 2 \
    --max_length 512 \
    --check_dataset_strategy warning \
    --lora_rank 8 \
    --lora_alpha 32 \
    --lora_dropout_p 0.05 \
    --lora_target_modules ALL \
    --batch_size 1 \
    --weight_decay 0.01 \
    --learning_rate 1e-4 \
    --gradient_accumulation_steps 16 \
    --max_grad_norm 0.5 \
    --warmup_ratio 0.03 \
    --eval_steps 300 \
    --save_steps 300 \
    --save_total_limit 2 \
    --logging_steps 10 \
    --only_save_model true \
    --gradient_checkpointing false
  1. Mixtral-8x7B-Instruct-v0.1模型
# Experimental environment: 2 * A100
# 2 * 65GB GPU memory
PYTHONPATH=../../.. \
CUDA_VISIBLE_DEVICES=0,1 \
python llm_sft.py \
    --model_id_or_path AI-ModelScope/Mixtral-8x7B-Instruct-v0.1 \
    --model_revision master \
    --sft_type lora \
    --tuner_backend swift \
    --dtype AUTO \
    --output_dir output \
    --ddp_backend nccl \
    --dataset dureader-robust-zh \
    --train_dataset_sample -1 \
    --num_train_epochs 2 \
    --max_length 2048 \
    --check_dataset_strategy warning \
    --lora_rank 8 \
    --lora_alpha 32 \
    --lora_dropout_p 0.05 \
    --lora_target_modules ALL \
    --batch_size 1 \
    --weight_decay 0.01 \
    --learning_rate 1e-4 \
    --gradient_accumulation_steps 16 \
    --max_grad_norm 0.5 \
    --warmup_ratio 0.03 \
    --eval_steps 300 \
    --save_steps 300 \
    --save_total_limit 2 \
    --logging_steps 10 \
    --only_save_model true \
    --gradient_checkpointing false

訓(xùn)練過程也支持本地?cái)?shù)據(jù)集,需要指定如下參數(shù):

--custom_train_dataset_path /path/to/local/train/file
--custom_val_dataset_path /path/to/local/val/file

數(shù)據(jù)集格式請參考:

模型微調(diào)后的推理腳本,這里的ckpt_dir需要修改為訓(xùn)練生成的checkpoint文件夾:

# Experimental environment: A100
# 2 * 45GB GPU memory
PYTHONPATH=../../.. \
CUDA_VISIBLE_DEVICES=0,1 \
python llm_infer.py \
    --ckpt_dir "output/mistral-7b-moe/vx_xxx/checkpoint-xxx" \
    --load_args_from_ckpt_dir true \
    --eval_human false \
    --max_length 4096 \
    --max_new_tokens 2048 \
    --temperature 0.1 \
    --top_p 0.7 \
    --repetition_penalty 1.05 \
    --do_sample true \
    --merge_lora_and_save false \

微調(diào)的可視化結(jié)果

訓(xùn)練損失:

mixtral,aigc,大模型,人工智能,開源,chatgpt,AIGC

評估損失

mixtral,aigc,大模型,人工智能,開源,chatgpt,AIGC

訓(xùn)練后生成樣例

[INFO:swift] Setting args.verbose: True
[PROMPT]<s> [INST] <<SYS>>
You are a helpful, respectful and honest assistant. Always answer as helpfully as possible, while being safe. Your answers should not include any harmful, unethical, racist, sexist, toxic, dangerous, or illegal content. Please ensure that your responses are socially unbiased and positive in nature.

If a question does not make any sense, or is not factually coherent, explain why instead of answering something not correct. If you don't know the answer to a question, please don't share false information.
<</SYS>>

Task: Question Generation
Context: 爬行墊根據(jù)中間材料的不同可以分為:XPE爬行墊、EPE爬行墊、EVA爬行墊、PVC爬行墊;其中XPE爬行墊、EPE爬行墊都屬于PE材料加保鮮膜復(fù)合而成,都是無異味的環(huán)保材料,但是XPE爬行墊是品質(zhì)較好的爬行墊,韓國進(jìn)口爬行墊都是這種爬行墊,而EPE爬行墊是國內(nèi)廠家為了減低成本,使用EPE(珍珠棉)作為原料生產(chǎn)的一款爬行墊,該材料彈性差,易碎,開孔發(fā)泡防水性弱。EVA爬行墊、PVC爬行墊是用EVA或PVC作為原材料與保鮮膜復(fù)合的而成的爬行墊,或者把圖案轉(zhuǎn)印在原材料上,這兩款爬行墊通常有異味,如果是圖案轉(zhuǎn)印的爬行墊,油墨外露容易脫落。當(dāng)時(shí)我兒子爬的時(shí)候,我們也買了墊子,但是始終有味。最后就沒用了,鋪的就的薄毯子讓他爬。
Answer: XPE
Question:  [/INST][OUTPUT]什么材質(zhì)的爬行墊好</s>

[LABELS]爬行墊什么材質(zhì)的好
--------------------------------------------------
[PROMPT]<s> [INST] <<SYS>>
You are a helpful, respectful and honest assistant. Always answer as helpfully as possible, while being safe. Your answers should not include any harmful, unethical, racist, sexist, toxic, dangerous, or illegal content. Please ensure that your responses are socially unbiased and positive in nature.

If a question does not make any sense, or is not factually coherent, explain why instead of answering something not correct. If you don't know the answer to a question, please don't share false information.
<</SYS>>

Task: Question Generation
Context: 真實(shí)情況是160-162。她平時(shí)謊報(bào)的168是因?yàn)椴浑x腳穿高水臺恨天高(15厘米) 圖1她穿著高水臺恨天高和劉亦菲一樣高,(劉亦菲對外報(bào)身高172)范冰冰禮服下厚厚的高水臺暴露了她的心機(jī),對比一下兩者的鞋子吧 圖2 穿著高水臺恨天高才和劉德華謝霆鋒持平,如果她真的有168,那么加上鞋高,劉和謝都要有180?明顯是不可能的。所以劉德華對外報(bào)的身高174減去10-15厘米才是范冰冰的真實(shí)身高 圖3,范冰冰有一次脫鞋上場,這個(gè)最說明問題了,看看她的身體比例吧。還有目測一下她手上鞋子的鞋跟有多高多厚吧,至少超過10厘米。
Answer: 160-162
Question:  [/INST][OUTPUT]范冰冰身高</s>

[LABELS]范冰冰多高真實(shí)身高
--------------------------------------------------
[PROMPT]<s> [INST] <<SYS>>
You are a helpful, respectful and honest assistant. Always answer as helpfully as possible, while being safe. Your answers should not include any harmful, unethical, racist, sexist, toxic, dangerous, or illegal content. Please ensure that your responses are socially unbiased and positive in nature.

If a question does not make any sense, or is not factually coherent, explain why instead of answering something not correct. If you don't know the answer to a question, please don't share false information.
<</SYS>>

Task: Question Generation
Context: 防水作為目前高端手機(jī)的標(biāo)配,特別是蘋果也支持防水之后,國產(chǎn)大多數(shù)高端旗艦手機(jī)都已經(jīng)支持防水。雖然我們真的不會故意把手機(jī)放入水中,但是有了防水之后,用戶心里會多一重安全感。那么近日最為火熱的小米6防水嗎?小米6的防水級別又是多少呢? 小編查詢了很多資料發(fā)現(xiàn),小米6確實(shí)是防水的,但是為了保持低調(diào),同時(shí)為了不被別人說防水等級不夠,很多資料都沒有標(biāo)注小米是否防水。根據(jù)評測資料顯示,小米6是支持IP68級的防水,是絕對能夠滿足日常生活中的防水需求的。
Answer: IP68級
Question:  [/INST][OUTPUT]小米6防水等級</s>

[LABELS]小米6防水等級

資源消耗:

2 * 46G

mixtral,aigc,大模型,人工智能,開源,chatgpt,AIGC

點(diǎn)擊鏈接直達(dá)模型:Mixtral-8x7B-v0.1 · 模型庫 (modelscope.cn)文章來源地址http://www.zghlxwxcb.cn/news/detail-794608.html

到了這里,關(guān)于Mistral AI發(fā)布首個(gè)開源MoE模型,魔搭社區(qū)推理微調(diào)最佳實(shí)踐來啦!的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 國內(nèi)最大Llama開源社區(qū)發(fā)布首個(gè)預(yù)訓(xùn)練中文版Llama2

    國內(nèi)最大Llama開源社區(qū)發(fā)布首個(gè)預(yù)訓(xùn)練中文版Llama2

    \\\" 7月31日,Llama中文社區(qū)率先完成了國內(nèi) 首個(gè)真正意義上的中文版Llama2-13B大模型 ,從模型底層實(shí)現(xiàn)了Llama2中文能力的大幅優(yōu)化和提升。毋庸置疑,中文版Llama2一經(jīng)發(fā)布將開啟國內(nèi)大模型新時(shí)代! | 全球最強(qiáng),但中文短板 Llama2是當(dāng)前全球范圍內(nèi)最強(qiáng)的開源大模型,但其中文能

    2024年02月13日
    瀏覽(21)
  • 大模型調(diào)用工具魔搭GPT——一鍵調(diào)用魔搭社區(qū)上百個(gè)AI模型的API

    大模型調(diào)用工具魔搭GPT——一鍵調(diào)用魔搭社區(qū)上百個(gè)AI模型的API

    為了讓模型開發(fā)變得更容易,阿里云在發(fā)布會現(xiàn)場推出了一款令開發(fā)者耳目一新的工具:ModelScopeGPT(魔搭GPT)。它能夠通過擔(dān)任“中樞模型”的大語言模型一鍵調(diào)用魔搭社區(qū)其他的AI模型,實(shí)現(xiàn)大模型和小模型協(xié)同完成復(fù)雜任務(wù)。 ? 這類智能調(diào)用工具被業(yè)界普遍看好。Model

    2024年02月16日
    瀏覽(16)
  • ModaHub魔搭社區(qū): AI模型社區(qū)ModelScope和Hugging Face行業(yè)分析報(bào)告

    目錄 引言: 一、github星數(shù): 二、模型數(shù): 三、數(shù)據(jù)集: 四、演示應(yīng)用程序數(shù): 五、下載數(shù): 六、開發(fā)者、付費(fèi)企業(yè)和公司用戶數(shù): 結(jié)論: AI模型開源社區(qū)在近年來迅速發(fā)展,為研究人員、開發(fā)者和企業(yè)提供了豐富的資源和工具。本報(bào)告將對兩個(gè)知名

    2024年02月13日
    瀏覽(79)
  • 24-25年是下一代浪潮最關(guān)鍵的兩年!GenAI框架與工具合集;RAG要點(diǎn)速查手冊;國內(nèi)首個(gè)MoE開源大模型;大語言模型新書追更 | ShowMeAI日報(bào)

    24-25年是下一代浪潮最關(guān)鍵的兩年!GenAI框架與工具合集;RAG要點(diǎn)速查手冊;國內(nèi)首個(gè)MoE開源大模型;大語言模型新書追更 | ShowMeAI日報(bào)

    ?? 日報(bào)周刊合集 | ?? 生產(chǎn)力工具與行業(yè)應(yīng)用大全 | ?? 點(diǎn)贊關(guān)注評論拜托啦! https://d.design/competition/alipay-spring 補(bǔ)充一份背景:堆友 (D.Design) 是阿里巴巴推出的一個(gè)新的在線設(shè)計(jì)平臺 支付寶和堆友聯(lián)合推出了一場 AIGC 視頻創(chuàng)作比賽,邀請創(chuàng)作者使用AI工具創(chuàng)作賀歲 MV,并提

    2024年01月22日
    瀏覽(18)
  • 阿里云通義千問開源第二波!大規(guī)模視覺語言模型Qwen-VL上線魔搭社區(qū)

    阿里云通義千問開源第二波!大規(guī)模視覺語言模型Qwen-VL上線魔搭社區(qū)

    通義千問開源第二波!8月25日消息,阿里云推出大規(guī)模視覺語言模型Qwen-VL,一步到位、直接開源。Qwen-VL以通義千問70億參數(shù)模型Qwen-7B為基座語言模型研發(fā),支持圖文輸入,具備多模態(tài)信息理解能力。在主流的多模態(tài)任務(wù)評測和多模態(tài)聊天能力評測中,Qwen-VL取得了遠(yuǎn)超同等規(guī)

    2024年02月11日
    瀏覽(26)
  • 百度智能云發(fā)布國內(nèi)首個(gè)AI原生應(yīng)用商店,構(gòu)建全鏈路大模型生態(tài)體系

    百度智能云發(fā)布國內(nèi)首個(gè)AI原生應(yīng)用商店,構(gòu)建全鏈路大模型生態(tài)體系

    面向企業(yè)客戶啟動文心大模型4.0 API調(diào)用服務(wù)測試申請, 服務(wù)超過17000家客戶,在各行各業(yè)的近500個(gè)場景中進(jìn)行大模型應(yīng)用落地探索 ……自今年3月面世以來,百度智能云千帆大模型平臺作為全球首個(gè)一站式企業(yè)級大模型平臺,為業(yè)界交出了唯一一份“滿分成績單”。 10月17日

    2024年02月07日
    瀏覽(20)
  • ModaHub魔搭社區(qū):開源向量數(shù)據(jù)庫的Milvus怎么讀?

    ModaHub魔搭社區(qū):開源向量數(shù)據(jù)庫的Milvus怎么讀?

    Milvus是一個(gè)中文詞語,意為“Milvus navigate,為智慧找方向,為價(jià)值做鏈接,為創(chuàng)作者做伙伴”。在讀這個(gè)詞語時(shí),可以按照以下方式發(fā)音: ? 首先,我們需要將Milvus這個(gè)詞語分解成多個(gè)音節(jié)。根據(jù)漢語拼音的規(guī)則,可以將其分解為“mi”、“l(fā)u”、“su”。 接下來,我們需要

    2024年02月15日
    瀏覽(298)
  • ModaHub魔搭社區(qū):阿里云CTO周靖人:魔搭社區(qū)將成為中國最大的“大模型自由市場”

    ModaHub魔搭社區(qū):阿里云CTO周靖人:魔搭社區(qū)將成為中國最大的“大模型自由市場”

    7月7日消息,阿里云CTO周靖人在上海世界人工智能大會上宣布了阿里云的發(fā)展計(jì)劃。 ? 他表示,阿里云將致力于推動中國大模型生態(tài)的繁榮,并為大模型創(chuàng)業(yè)公司提供全方位的支持。阿里云魔搭社區(qū)已經(jīng)聚集了180萬AI開發(fā)者和900多個(gè)優(yōu)質(zhì)AI模型,旨在成為中國最大的“大模型自

    2024年02月15日
    瀏覽(21)
  • 中國電信開源星辰AI大模型:央企中首個(gè)完成LLM研發(fā)和開源的選手誕生

    中國電信開源星辰AI大模型:央企中首個(gè)完成LLM研發(fā)和開源的選手誕生

    豐色 發(fā)自 凹非寺 量子位 | 公眾號 QbitAI 沒想到啊,開源大模型家族里,居然擠進(jìn)來一位 特別的選手 : 來自央企,身份為運(yùn)營商。 具體是誰? 中國電信 。 所謂“不鳴則已,一鳴驚人”: 中國電信集團(tuán)成立的中電信人工智能科技有限公司憑借全自研算法、精心打造的高質(zhì)量

    2024年02月21日
    瀏覽(23)
  • ModaHub魔搭社區(qū):基于阿里云 ACK 搭建開源向量數(shù)據(jù)庫 Milvus

    目錄 一、準(zhǔn)備資源 二、集群創(chuàng)建: 本集群基于Terway網(wǎng)絡(luò)構(gòu)建 二、連接剛剛創(chuàng)建的ACK集群 三、部署Milvus數(shù)據(jù)庫 四、優(yōu)化Milvus配置 簡介: 生成式 AI(Generative AI)引爆了向量數(shù)據(jù)庫(Vector Database)市場,基于大模型的各種應(yīng)用場景會需要使用到向量數(shù)據(jù)庫。 其中,Milvus 是一

    2024年02月12日
    瀏覽(25)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包