羊駝系列大模型:大模型的安卓系統(tǒng)
GPT系列:類比ios系統(tǒng),不開源
LLaMa讓大模型平民化
LLaMa優(yōu)勢
用到的數(shù)據(jù):大部分英語、西班牙語,少中文
模型下載地址
https://huggingface.co/meta-llama
Alpaca模型
Alpaca是斯坦福從Meta的LLaMA 7B微調(diào)而來的全新模型 (套殼)僅用了52k數(shù)據(jù),性能約等于GPT-3.5。
訓(xùn)練成本奇低,總成本不到600美元
- 在8個(gè)80GB A100上訓(xùn)練了3個(gè)小時(shí),不到100美元;
- 生成數(shù)據(jù)使用OpenAl的AP1,500美元。(數(shù)據(jù)標(biāo)注: 問題問chatgpt,用它的回答作為標(biāo)注數(shù)據(jù))
Alpaca模型的訓(xùn)練
Vicuna模型
Vicuna簡介
具體工作流程
用GPT4做評估,用更厲害的大模型做大模型
ChatGPT沒找到合適的盈利模式
諸駝對比
華駝模型
百川大模型
LLaMa+中文數(shù)據(jù)
LLaMa2.0
具備人的情商
國內(nèi)大模型清華6B(中英文數(shù)據(jù)各一半)、百度文心一言是原創(chuàng),其它的套殼。
找大模型工作不要找研究型工作,而要找將大模型落地的工作。文章來源:http://www.zghlxwxcb.cn/news/detail-811467.html
微調(diào)的本質(zhì)
- 原生llama用的通用語料
- 在自己的數(shù)據(jù)上進(jìn)行微調(diào),讓模型能夠滿足自己的需求
羊駝系列的共性
文章來源地址http://www.zghlxwxcb.cn/news/detail-811467.html
到了這里,關(guān)于羊駝系列大模型LLaMa、Alpaca、Vicuna的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!