最近正在學(xué)習(xí)chatGPT相關(guān)大模型,整理相關(guān)資料如下,本文仍在修改中,如有侵權(quán),請(qǐng)聯(lián)系刪除文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-430588.html
一、相關(guān)論文
- chatGPT-1: Improving Language Understanding by Generative Pre-Training
- chatGPB-2: Language Models are Unsupervised Multitask Learners
- chatGPT-3: Language Models are Few-Shot Learners
二、與chatGPT類似的大模型開源鏈接
模型名稱 | 開發(fā)者 | 模型介紹 | 介紹資料 | 模型代碼鏈接 |
---|---|---|---|---|
LLaMA | Meta | LLaMA: Open and Efficient Foundation Language Models | https://github.com/facebookresearch/llama | |
Alpaca | stanford | A Strong, Replicable Instruction-Following Model | https://github.com/tatsu-lab/stanford_alpaca | |
Alpace-LoRA | stanford | LoRA(low-rank adaptation)技術(shù)復(fù)現(xiàn)了 Alpaca 的結(jié)果 | https://www.thepaper.cn/newsDetail_forward_22455425 | https://github.com/tloen/alpaca-lora |
Vicuna | UC Berkeley, CMU, Stanford, and UC San Diego | 是在alpaca上改進(jìn)的,能90%復(fù)現(xiàn)chat-gpt4 | https://hub.baai.ac.cn/view/25175 | https://github.com/lm-sys/FastChat |
Chinese-Vicuna | A Chinese Instruction-following LLaMA-based Model —— 一個(gè)中文低資源的llama+lora方案 | https://github.com/Facico/Chinese-Vicuna | ||
chatGLM | 清華大學(xué) | https://github.com/THUDM/ChatGLM-6B | ||
BLOOM-1b3 | https://huggingface.co/bigscience/distill-bloom-1b3 | |||
BELLE | Bloom上優(yōu)化的 | https://github.com/LianjiaTech/BELLE | ||
BLoom | 100+研究人員 | 在46種自然語(yǔ)言和13種編程語(yǔ)言 | ||
Koala |
文章來(lái)源:http://www.zghlxwxcb.cn/news/detail-430588.html
到了這里,關(guān)于自然語(yǔ)言處理 | 大模型|類似chatGPT的開源大模型整理的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!