0. 背景
ChatGPT 火起來了,很多企業(yè)想用 ChatGPT,但是又由于企業(yè)數(shù)據(jù)的保密性,所以本地部署開源大語言模型是不二之選。
各個企業(yè)本地部署大語言模型的第一步,就是調(diào)研哪些開源大語言模型可以商用。
本文對模型是否可以商用,主要調(diào)查了各個開源模型的許可內(nèi)容及Model許可內(nèi)容。
讀者如果發(fā)現(xiàn)調(diào)查結(jié)果有需要修正的地方,歡迎在評論區(qū)留言或者發(fā)私信給我。
**免責(zé)聲明:**由于作者知識和判斷能力有限,此調(diào)查結(jié)果僅供參考,并不對調(diào)查結(jié)果負(fù)有任何責(zé)任。企業(yè)如果想使用某個開源模型,還請自行調(diào)查和判斷。
1. 調(diào)查結(jié)果
1.1 基礎(chǔ)大模型(LLM)
大規(guī)模基礎(chǔ)模型:表格中只羅列出參數(shù)量
大于7B
以上模型。
模型 | 大小 | 時間 | 語言 | 領(lǐng)域 | 下載 | 項(xiàng)目地址 | 機(jī)構(gòu)/個人 | 結(jié)構(gòu) | 文獻(xiàn) | 備注 | 模型是否可以商用 |
---|---|---|---|---|---|---|---|---|---|---|---|
Baichuan-7B | 7B | 2023-06 | 中英 | ckpt | baichuan-7B | 百川智能 | Decoder | baichuan-7B 支持商用。如果將 baichuan-7B 模型或其衍生品用作商業(yè)用途,請您按照如下方式聯(lián)系許可方,以進(jìn)行登記并向許可方申請書面授權(quán):聯(lián)系郵箱:opensource@baichuan-inc.com, 具體許可協(xié)議可見《baichuan-7B 模型許可協(xié)議》。 | |||
Chinese-Falcon-7B | 7B | 2023-06 | 中英 | ckpt | Linly | 深圳大學(xué)計(jì)算機(jī)視覺研究所 | Decoder | Blog | 模型以 Apache License 2.0 協(xié)議開源,支持商業(yè)用途。 | ||
AquilaCode-7B-TS | 7B | 2023-06 | 中英 | ckpt | Aquila | 智源研究院 | Decoder | 支持開源商用許可。Aquila系列模型的源代碼基于 Apache 2.0 協(xié)議,模型權(quán)重基于《智源Aquila系列模型許可協(xié)議》,使用者在滿足許可限制的情況下,可用于商業(yè)目的。 | |||
Aquila-7B | 7B | 2023-06 | 中英 | ckpt | Aquila | 智源研究院 | Decoder | 支持開源商用許可。Aquila系列模型的源代碼基于 Apache 2.0 協(xié)議,模型權(quán)重基于《智源Aquila系列模型許可協(xié)議》,使用者在滿足許可限制的情況下,可用于商業(yè)目的。 | |||
Chinese-LLaMA-33B | 33B | 2023-06 | 中英 | ckpt | Chinese-LLaMA-Alpaca | Yiming Cui | Decoder | Facebook官方發(fā)布的LLaMA模型禁止商用,并且官方?jīng)]有正式開源模型權(quán)重(雖然網(wǎng)上已經(jīng)有很多第三方的下載地址)。為了遵循相應(yīng)的許可,目前暫時無法發(fā)布完整的模型權(quán)重,敬請各位理解(目前國外也是一樣)。Facebook完全開放模型權(quán)重之后,本項(xiàng)目會及時更新相關(guān)策略。這里發(fā)布的是LoRA權(quán)重,可以理解為原LLaMA模型上的一個“補(bǔ)丁”,兩者進(jìn)行合并即可獲得完整版權(quán)重。以下中文LLaMA/Alpaca LoRA模型無法單獨(dú)使用,需要搭配原版LLaMA模型。請參考本項(xiàng)目給出的合并模型步驟重構(gòu)模型。 | |||
TigerBot-7b-base | 7B | 2023-06 | 多語 | ckpt | TigerBot | 虎博科技 | Decoder | 如需將模型公開使用或者商用,模型服務(wù)所產(chǎn)生的不良影響或者有害言論由服務(wù)方負(fù)責(zé),本項(xiàng)目開發(fā)者不承擔(dān)任何因使用本項(xiàng)目(包含但不限于數(shù)據(jù)、模型、代碼等)導(dǎo)致的危害或損失。 | |||
Panda-OpenLLaMA-7B | 7B | 2023-05 | 中英 | ckpt | pandallm | dandelionsllm | Decoder | 可商用 | |||
Panda-13B | 13B | 2023-05 | 中英 | ckpt | pandallm | dandelionsllm | Decoder | 不可商用 | |||
Panda-7B | 7B | 2023-05 | 中英 | ckpt | pandallm | dandelionsllm | Decoder | 不可商用 | |||
OpenLLaMA-13B | 13B | 2023-05 | 中英 | ckpt | Linly | 深圳大學(xué)計(jì)算機(jī)視覺研究所 | Decoder | Following LLaMA, our pre-trained weights are released under GNU General Public License v3.0 | |||
LaWGPT-7B | 7B | 2023-05 | 中英 | 法律 | ckpt | LawGPT | Pengxiao Song | Decoder | 本項(xiàng)目任何資源僅供學(xué)術(shù)研究使用,嚴(yán)禁任何商業(yè)用途。 | ||
BiLLa-7B-LLM | 7B | 2023-05 | 中英 | ckpt | BiLLa | Zhongli Li | Decoder | 本項(xiàng)目相關(guān)資源僅供學(xué)術(shù)研究,不得用于商業(yè)用途。 | |||
Ziya-LLaMA-7B-Reward | 7B | 2023-05 | 中英 | ckpt | Fengshenbang-LM | IDEA研究院 | Decoder | Apache License 2.0 (作者注:并未明確表明禁止商用) | |||
YuYan | 11B | 2023-04 | 中文 | ckpt | / | 網(wǎng)易伏羲 | Decoder | Paper | - | ||
Chinese-LLaMA-33B | 33B | 2023-04 | 中文 | ckpt | Linly | 深圳大學(xué)計(jì)算機(jī)視覺研究所 | Decoder | Blog | LLaMA 原始模型權(quán)重基于 GNU General Public License v3.0 協(xié)議,僅供研究使用,不能用于商業(yè)目的。 | ||
Chinese-LLaMA-13B | 13B | 2023-04 | 中文 | ckpt | Linly | 深圳大學(xué)計(jì)算機(jī)視覺研究所 | Decoder | Blog | LLaMA 原始模型權(quán)重基于 GNU General Public License v3.0 協(xié)議,僅供研究使用,不能用于商業(yè)目的。 | ||
Chinese-LLaMA-7B | 7B | 2023-04 | 中文 | ckpt | Linly | 深圳大學(xué)計(jì)算機(jī)視覺研究所 | Decoder | Blog | LLaMA 原始模型權(quán)重基于 GNU General Public License v3.0 協(xié)議,僅供研究使用,不能用于商業(yè)目的。 | ||
OpenChineseLLaMA | 7B | 2023-04 | 中英 | ckpt | OpenChineseLLaMA | OpenLMLab | Decoder | Non-commercial bespoke license | |||
MOSS-003 | 16B | 2023-04 | 中英 | ckpt | MOSS | 復(fù)旦大學(xué) | Decoder | 本項(xiàng)目所含代碼采用Apache 2.0協(xié)議,數(shù)據(jù)采用CC BY-NC 4.0協(xié)議,模型權(quán)重采用GNU AGPL 3.0協(xié)議。如需將本項(xiàng)目所含模型用于商業(yè)用途或公開部署,請簽署本文件并填寫此問卷取得授權(quán),商用情況僅用于記錄,不會收取任何費(fèi)用。 | |||
BBT-2-13B-Text | 13B | 2023-04 | 中文 | 申請下載 | BBT-FinCUGE-Applications | 超對稱 | Decoder | Paper | 未記述許可內(nèi)容 | ||
BBT-2-12B-Text | 12B | 2023-04 | 中文 | 申請下載 | BBT-FinCUGE-Applications | 超對稱 | Decoder | Paper | 未記述許可內(nèi)容 | ||
Chinese-LLaMA-13B | 13B | 2023-04 | 中英 | ckpt | Chinese-LLaMA-Alpaca | Yiming Cui | Decoder | Facebook官方發(fā)布的LLaMA模型禁止商用,并且官方?jīng)]有正式開源模型權(quán)重(雖然網(wǎng)上已經(jīng)有很多第三方的下載地址)。為了遵循相應(yīng)的許可,目前暫時無法發(fā)布完整的模型權(quán)重,敬請各位理解(目前國外也是一樣)。Facebook完全開放模型權(quán)重之后,本項(xiàng)目會及時更新相關(guān)策略。這里發(fā)布的是LoRA權(quán)重,可以理解為原LLaMA模型上的一個“補(bǔ)丁”,兩者進(jìn)行合并即可獲得完整版權(quán)重。以下中文LLaMA/Alpaca LoRA模型無法單獨(dú)使用,需要搭配原版LLaMA模型。 | |||
flan-ul2 | 20B | 2023-03 | 多語 | ckpt | ul2 | encoder-decoder | Paper | 未記述許可內(nèi)容 | |||
CPM-Bee | 10B | 2023-01 | 中英 | ckpt-10B ckpt-5B | CPM-Live | OpenBMB | Decoder | 模型訓(xùn)練完成后,你可以在開放使用許可下自由下載模型參數(shù)。CPM-Live使用的是包括商業(yè)化許可的開放許可。通過模型壓縮和推理加速工具,你可以在自己的電腦上體驗(yàn)大模型的威力! | |||
BLOOM | 176B | 2022-11 | 多語 | ckpt-95000 | Megatron-DeepSpeed | BigScience | Decoder | Paper | The BigScience RAIL License | ||
BLOOMZ | 176B | 2022-11 | 多語 | ckpt-498 | Megatron-DeepSpeed | BigScience | Decoder | Paper | The BigScience RAIL License | ||
flan-t5-xxl | 11B | 2022-11 | 多語 | ckpt | t5x | encoder-decoder | paper | Apache-2.0 license | |||
CPM-Ant+ | 10B | 2022-10 | 中英 | ckpt | CPM-Live | OpenBMB | Decoder | blog | 模型訓(xùn)練完成后,你可以在開放使用許可下自由下載模型參數(shù)。CPM-Live使用的是包括商業(yè)化許可的開放許可。通過模型壓縮和推理加速工具,你可以在自己的電腦上體驗(yàn)大模型的威力! | ||
GLM | 130B | 2022-10 | 中英 | 申請下載 | GLM-130B | 清華大學(xué) | Decoder | paper | You will not use, copy, modify, merge, publish, distribute, reproduce, or create derivative works of the Software, in whole or in part, for any commercial, military, or illegal purposes. | ||
CPM-Ant | 10B | 2022-09 | 中文 | ckpt | CPM-Live | OpenBMB | Decoder | blog | 模型訓(xùn)練完成后,你可以在開放使用許可下自由下載模型參數(shù)。CPM-Live使用的是包括商業(yè)化許可的開放許可。通過模型壓縮和推理加速工具,你可以在自己的電腦上體驗(yàn)大模型的威力! | ||
GLM | 10B | 2022-09 | 中文 | ckpt | GLM | 清華大學(xué) | Decoder | paper | You will not use, copy, modify, merge, publish, distribute, reproduce, or create derivative works of the Software, in whole or in part, for any commercial, military, or illegal purposes. | ||
CodeGeeX | 13B | 2022-06 | 多語 | 申請下載 | CodeGeeX | 清華大學(xué) | Decoder | blog | You will not use, copy, modify, merge, publish, distribute, reproduce, or create derivative works of the Software, in whole or in part, for any commercial, military, or illegal purposes. | ||
源1.0 | 245B | 2021-09 | 中文 | API申請 | Yian-1.0 | 浪潮 | Decoder | paper | 未記述許可內(nèi)容 | ||
CPM-2 | 11B | 2021-06 | 中文 | 申請下載 | CPM | 智源研究院 | encoder-decoder | paper | 未記述許可內(nèi)容 | ||
CPM-2 | 10B | 2021-06 | 中英 | 申請下載 | CPM | 智源研究院 | encoder-decoder | paper | 未記述許可內(nèi)容 | ||
CPM-2 | 200B | 2021-06 | 中英 | 申請下載 | CPM | 智源研究院 | encoder-decoder,MOE | paper | 未記述許可內(nèi)容 | ||
PanGu-Alpha | 13B | 2021-05 | 中文 | ckpt | PanGu-Alpha | 鵬城實(shí)驗(yàn)室 | Decoder | paper | Apache License 2.0 | ||
PanGu-Alpha | 200B | 2021-05 | 中文 | 待發(fā)布 | PanGu-Alpha | 鵬城實(shí)驗(yàn)室 | Decoder | paper | Apache License 2.0 | ||
PLUG | 27B | 2021-04 | 中文 | 申請下載 | AliceMind | 阿里巴巴 | encoder-decoder | Apache-2.0 license | |||
GPT-3 | 13B | 2021-04 | 中文 | 待發(fā)布 | GPT-3 | 達(dá)摩院 | Decoder | Apache-2.0 license | |||
GPT-3 | 30B | 2021-04 | 中文 | 待發(fā)布 | GPT-3 | 達(dá)摩院 | Decoder | Apache-2.0 license |
1.2 對話大模型(ChatLLM)
具備問答和對話等功能的大型語言模型。文章來源:http://www.zghlxwxcb.cn/news/detail-496468.html
模型 | 大小 | 時間 | 語言 | 領(lǐng)域 | 下載 | 項(xiàng)目地址 | 機(jī)構(gòu)/個人 | 結(jié)構(gòu) | 文獻(xiàn) | 模型是否可以商用 |
---|---|---|---|---|---|---|---|---|---|---|
Yayi | 7B | 2023-06 | 中英 | 安全、輿情、治理等 | ckpt | Yayi | 中科聞歌 | Decoder | You will not use, copy, modify, merge, publish, distribute, reproduce, or create derivative works of the Software, in whole or in part, for any commercial, military, or illegal purposes. | |
BayLing-13B | 13B | 2023-06 | 中英 | 通用 | ckpt | BayLing | 中國科學(xué)院 | Decoder | 模型權(quán)重(增量版本)和推理代碼在 GNU 通用公共許可證 v3.0(GPLv3)下發(fā)布。在線演示系統(tǒng)僅作為研究預(yù)覽,供非商業(yè)用途使用,并受到 LLaMA 的模型許可、OpenAI 生成數(shù)據(jù)的使用條款、ShareGPT 的隱私條例以及 WMT22 的數(shù)據(jù)許可的約束。 | |
BayLing-7B | 7B | 2023-06 | 中英 | 通用 | ckpt | BayLing | 中國科學(xué)院 | Decoder | 模型權(quán)重(增量版本)和推理代碼在 GNU 通用公共許可證 v3.0(GPLv3)下發(fā)布。在線演示系統(tǒng)僅作為研究預(yù)覽,供非商業(yè)用途使用,并受到 LLaMA 的模型許可、OpenAI 生成數(shù)據(jù)的使用條款、ShareGPT 的隱私條例以及 WMT22 的數(shù)據(jù)許可的約束。 | |
MeChat | 6B | 2023-06 | 中文 | 心理 | ckpt | smile | qiuhuachuan | Encoder-Decder | CC0-1.0 license(本項(xiàng)目開源的中文心理健康支持通用模型由 ChatGLM-6B LoRA 16-bit 指令微調(diào)得到。) | |
ziya-13b-medical | 13b | 2023-06 | 中英 | 醫(yī)學(xué) | ckpt | MedicalGPT | Ming Xu | Decoder | 基于以上模型局限性,我們要求開發(fā)者僅將我們開源的模型權(quán)重及后續(xù)用此項(xiàng)目生成的衍生物用于研究目的,不得用于商業(yè),以及其他會對社會帶來危害的用途。 | |
ZhiXi-13B-Diff | 13B | 2023-06 | 中英 | 通用 | ckpt | KnowLLM | 浙江大學(xué) | Decoder | 基于Llama | |
Anima | 33B | 2023-06 | 中文 | 通用 | ckpt | Anima | Gavin Li | Decoder | Apache-2.0 license | |
OpenLLaMA-Chinese-13B | 13B | 2023-06 | 中文 | 通用 | ckpt | OpenLLaMA-Chinese | FittenTech | Decoder | We adopt the Apache License, following OpenLLaMA’s license. | |
OpenLLaMA-Chinese-3B | 3B | 2023-06 | 中文 | 通用 | ckpt | OpenLLaMA-Chinese | FittenTech | Decoder | We adopt the Apache License, following OpenLLaMA’s license. | |
OpenLLaMA-Chinese-7B | 7B | 2023-06 | 中文 | 通用 | ckpt | OpenLLaMA-Chinese | FittenTech | Decoder | We adopt the Apache License, following OpenLLaMA’s license. | |
Taoli | 7B | 2023-06 | 中英 | 教育 | 待開源 | taoli | 北京語言大學(xué) | Decoder | 本項(xiàng)目內(nèi)容僅供用于學(xué)術(shù)研究,不得用于商業(yè)以及其他會對社會帶來危害的用途。 | |
Lawyer-llama | 13B | 2023-06 | 中英 | 法律 | ckpt | lawyer-llama | Quzhe Huang | Decoder | 本項(xiàng)目內(nèi)容僅供用于學(xué)術(shù)研究,不得用于商業(yè)以及其他會對社會帶來危害的用途。 | |
QiZhen-CaMA-13B | 13B | 2023-06 | 中英 | 醫(yī)學(xué) | ckpt-3600 ckpt-6000 | QiZhenGPT | 浙江大學(xué) | Decoder | 本項(xiàng)目相關(guān)資源僅供學(xué)術(shù)研究之用,嚴(yán)禁用于商業(yè)用途。 | |
扁鵲-2.0 | 6B | 2023-06 | 中文 | 醫(yī)學(xué) | ckpt | BianQue | 華南理工大學(xué) | Encoder-Decder | **扁鵲-2.0(BianQue-2.0)**使用了ChatGLM-6B 模型的權(quán)重,需要遵循其MODEL_LICENSE,因此,本項(xiàng)目僅可用于您的非商業(yè)研究目的。 | |
SoulChat | 6B | 2023-06 | 中文 | 心理 | ckpt | SoulChat | 華南理工大學(xué) | Encoder-Decder | 本項(xiàng)目使用了ChatGLM-6B 模型的權(quán)重,需要遵循其MODEL_LICENSE,因此,本項(xiàng)目僅可用于您的非商業(yè)研究目的。 | |
openbuddy-falcon-7b-v1.5 | 7B | 2023-06 | 多語 | 通用 | ckpt | OpenBuddy | OpenBuddy | Decoder | OpenBuddy-LLaMA series models are strictly prohibited for commercial use and are intended for research purposes only. For more information, please refer to the LLaMA License. | |
AtomGPT_8k_chat | 13B | 2023-06 | 中英 | 通用 | ckpt | AtomGPT | 原子回聲 | Decoder | 本項(xiàng)目遵循apache-2.0的開源協(xié)議。使用涉及第三方代碼的部分時,請嚴(yán)格遵循相應(yīng)的開源協(xié)議。模型生成的內(nèi)容受模型計(jì)算、隨機(jī)性和量化精度損失等因素影響,本項(xiàng)目不對其準(zhǔn)確性作出保證。對于模型輸出的任何內(nèi)容,本項(xiàng)目不承擔(dān)任何法律責(zé)任,亦不對因使用相關(guān)資源和輸出結(jié)果而可能產(chǎn)生的任何損失承擔(dān)責(zé)任。 | |
AquilaChat-7B | 7B | 2023-06 | 中英 | 通用 | ckpt | Aquila | 智源研究院 | Decoder | 支持開源商用許可。Aquila系列模型的源代碼基于 Apache 2.0 協(xié)議,模型權(quán)重基于《智源Aquila系列模型許可協(xié)議》,使用者在滿足許可限制的情況下,可用于商業(yè)目的。 | |
YuLan-Chat-65B | 65B | 2023-06 | 中英 | 通用 | lora-ckpt | YuLan-Chat | 中國人民大學(xué) | Decoder | YuLan-Chat uses MIT License. All data and code in this project can only be used for academic purposes. | |
YuLan-Chat-13B | 13B | 2023-06 | 中英 | 通用 | lora-ckpt | YuLan-Chat | 中國人民大學(xué) | Decoder | YuLan-Chat uses MIT License. All data and code in this project can only be used for academic purposes. | |
Chinese-Alpaca-33B | 33B | 2023-06 | 中文 | 通用 | lora-ckpt | Chinese-LLaMA-Alpaca | Yiming Cui | Decoder | Facebook官方發(fā)布的LLaMA模型禁止商用,并且官方?jīng)]有正式開源模型權(quán)重(雖然網(wǎng)上已經(jīng)有很多第三方的下載地址)。為了遵循相應(yīng)的許可,目前暫時無法發(fā)布完整的模型權(quán)重,敬請各位理解(目前國外也是一樣)。Facebook完全開放模型權(quán)重之后,本項(xiàng)目會及時更新相關(guān)策略。這里發(fā)布的是LoRA權(quán)重,可以理解為原LLaMA模型上的一個“補(bǔ)丁”,兩者進(jìn)行合并即可獲得完整版權(quán)重。以下中文LLaMA/Alpaca LoRA模型無法單獨(dú)使用,需要搭配原版LLaMA模型。請參考本項(xiàng)目給出的合并模型步驟重構(gòu)模型。 | |
TigerBot-sft | 180B | 2023-06 | 多語 | 通用 | ckpt | TigerBot | 虎博科技 | Decoder | 如需將模型公開使用或者商用,模型服務(wù)所產(chǎn)生的不良影響或者有害言論由服務(wù)方負(fù)責(zé),本項(xiàng)目開發(fā)者不承擔(dān)任何因使用本項(xiàng)目(包含但不限于數(shù)據(jù)、模型、代碼等)導(dǎo)致的危害或損失。 | |
TigerBot-sft | 7B | 2023-06 | 多語 | 通用 | ckpt | TigerBot | 虎博科技 | Decoder | 如需將模型公開使用或者商用,模型服務(wù)所產(chǎn)生的不良影響或者有害言論由服務(wù)方負(fù)責(zé),本項(xiàng)目開發(fā)者不承擔(dān)任何因使用本項(xiàng)目(包含但不限于數(shù)據(jù)、模型、代碼等)導(dǎo)致的危害或損失。 | |
ChatYuan-7B | 7B | 2023-06 | 中英 | 通用 | ckpt | ChatYuan-7B | ClueAI | Decoder | 不允許商業(yè)用途和其他潛在有害的使用場景。 | |
Panda-Instruct-13B | 13B | 2023-05 | 中英 | 通用 | ckpt | pandallm | dandelionsllm | Decoder | 我們要求開發(fā)者不得將我們開源的代碼、數(shù)據(jù)、模型及后續(xù)用此項(xiàng)目生成的衍生物用于任何商業(yè)(開源可商用版本OpenPandaLLM除外)以及為社會帶來危害的用途。 | |
Panda-Instruct-7B | 7B | 2023-05 | 中英 | 通用 | ckpt | pandallm | dandelionsllm | Decoder | 我們要求開發(fā)者不得將我們開源的代碼、數(shù)據(jù)、模型及后續(xù)用此項(xiàng)目生成的衍生物用于任何商業(yè)(開源可商用版本OpenPandaLLM除外)以及為社會帶來危害的用途。 | |
BiLLa-7B-SFT | 7B | 2023-05 | 中英 | 通用 | ckpt | BiLLa | Zhongli Li | Decoder | 本項(xiàng)目相關(guān)資源僅供學(xué)術(shù)研究,不得用于商業(yè)用途。 | |
QiZhen-ChatGLM-6B | 6B | 2023-05 | 中英 | 醫(yī)學(xué) | ckpt-2500 | QiZhenGPT | 浙江大學(xué) | Decoder | 本項(xiàng)目相關(guān)資源僅供學(xué)術(shù)研究之用,嚴(yán)禁用于商業(yè)用途。 | |
QiZhen-Chinese-LLaMA-7B | 7B | 2023-05 | 中英 | 醫(yī)學(xué) | ckpt-3500 ckpt-6000 | QiZhenGPT | 浙江大學(xué) | Decoder | 本項(xiàng)目相關(guān)資源僅供學(xué)術(shù)研究之用,嚴(yán)禁用于商業(yè)用途。 | |
ChatMed-Consult | 7B | 2023-05 | 中英 | 醫(yī)學(xué) | ckpt | ChatMed | michael-wzhu | Decoder | 本項(xiàng)目相關(guān)資源僅供學(xué)術(shù)研究之用,嚴(yán)禁用于商業(yè)用途。 | |
LaWGPT-7B-beta1.1 | 7B | 2023-05 | 中英 | 法律 | ckpt | LawGPT | Pengxiao Song | Decoder | 本項(xiàng)目任何資源僅供學(xué)術(shù)研究使用,嚴(yán)禁任何商業(yè)用途。 | |
LaWGPT-7B-beta1.0 | 7B | 2023-05 | 中英 | 法律 | ckpt | LawGPT | Pengxiao Song | Decoder | 本項(xiàng)目任何資源僅供學(xué)術(shù)研究使用,嚴(yán)禁任何商業(yè)用途。 | |
Cornucopia | 7B | 2023-05 | 中英 | 金融 | ckpt-linly-llama | Cornucopia-LLaMA-Fin-Chinese | yuyangmu | Decoder | 本項(xiàng)目相關(guān)資源僅供學(xué)術(shù)研究之用,嚴(yán)禁用于商業(yè)用途。 | |
Cornucopia | 7B | 2023-05 | 中英 | 金融 | ckpt-ori-fb | Cornucopia-LLaMA-Fin-Chinese | yuyangmu | Decoder | 本項(xiàng)目相關(guān)資源僅供學(xué)術(shù)研究之用,嚴(yán)禁用于商業(yè)用途。 | |
HuatuoGPT | 7B | 2023-05 | 中文 | 醫(yī)學(xué) | ckpt | HuatuoGPT | 香港中文大學(xué) | Decoder | Paper | Apache-2.0 license |
LexiLaw | 6B | 2023-05 | 中文 | 法律 | ckpt | LexiLaw | Haitao Li | Decoder | Paper | 本項(xiàng)目任何資源僅供學(xué)術(shù)研究使用,嚴(yán)禁任何商業(yè)用途。 |
XuanYuan | 176B | 2023-05 | 中文 | 金融 | 申請下載 | XuanYuan | 度小滿 | Decoder | Paper | 軒轅作為一個開源的中文金融對話模型,僅限于非商業(yè)用途的目的。 |
Ziya-LLaMA-13B-v1 | 13B | 2023-05 | 中英 | 通用 | ckpt | Fengshenbang-LM | IDEA研究院 | Decoder | Blog | 基于 LLaMA |
BLOOMChat V1.0 | 176B | 2023-05 | 多語 | 通用 | ckpt | bloomchat | SambaNova Systems | Decoder | Blog | 不太明確 |
BiLLa | 7B | 2023-05 | 中英 | 通用 | ckpt | BiLLa | Zhongli Li | Decoder | 本項(xiàng)目相關(guān)資源僅供學(xué)術(shù)研究,不得用于商業(yè)用途。 | |
Bactrian-X | 13B | 2023-05 | 多語 | 通用 | lora-ckpt | bactrian-x | MBZUAI | Decoder | Bactrian-X is intended and licensed for research use only. The dataset is CC BY NC 4.0 (allowing only non-commercial use) and models trained using the dataset should not be used outside of research purposes. | |
Bactrian-X | 7B | 2023-05 | 多語 | 通用 | lora-ckpt | bactrian-x | MBZUAI | Decoder | Bactrian-X is intended and licensed for research use only. The dataset is CC BY NC 4.0 (allowing only non-commercial use) and models trained using the dataset should not be used outside of research purposes. | |
Bactrian-ZH | 7B | 2023-05 | 中文 | 通用 | lora-ckpt | bactrian-x | MBZUAI | Decoder | Bactrian-X is intended and licensed for research use only. The dataset is CC BY NC 4.0 (allowing only non-commercial use) and models trained using the dataset should not be used outside of research purposes. | |
LawGPT | 6B | 2023-05 | 中文 | 法律 | lora-ckpt | LAW-GPT | hongchengliu | Encoder-Decder | 預(yù)訓(xùn)練模型是基于大量語料庫和算法模型進(jìn)行訓(xùn)練的,并且在訓(xùn)練過程中可能存在偏差、錯誤和不完整的信息。因此,本項(xiàng)目提供的預(yù)訓(xùn)練模型僅供參考和研究使用,并不能保證其準(zhǔn)確性和可靠性。使用預(yù)訓(xùn)練模型產(chǎn)生的結(jié)果可能存在誤差和偏差,不能用于實(shí)際應(yīng)用或決策。本項(xiàng)目不對使用預(yù)訓(xùn)練模型所產(chǎn)生的結(jié)果承擔(dān)任何責(zé)任,也不對因使用預(yù)訓(xùn)練模型所產(chǎn)生的任何損失承擔(dān)責(zé)任。使用者在使用預(yù)訓(xùn)練模型時應(yīng)自行承擔(dān)風(fēng)險并進(jìn)行自我驗(yàn)證。 | |
ChatFlow-13B | 13B | 2023-05 | 中英 | 通用 | ckpt | Linly | 深圳大學(xué)計(jì)算機(jī)視覺研究所 | Decoder | Our code and documents are released under Apache Licence 2.0 Following LLaMA, our pre-trained weights are released under GNU General Public License v3.0 | |
ChatFlow-7B | 7B | 2023-05 | 中英 | 通用 | ckpt | Linly | 深圳大學(xué)計(jì)算機(jī)視覺研究所 | Decoder | Our code and documents are released under Apache Licence 2.0 Following LLaMA, our pre-trained weights are released under GNU General Public License v3.0 | |
OpenBuddy | 7B | 2023-05 | 多語 | 通用 | ckpt | OpenBuddy | OpenBuddy | Decoder | OpenBuddy-LLaMA series models are strictly prohibited for commercial use and are intended for research purposes only. For more information, please refer to the LLaMA License. | |
OpenBuddy | 13B | 2023-05 | 多語 | 通用 | ckpt | OpenBuddy | OpenBuddy | Decoder | OpenBuddy-LLaMA series models are strictly prohibited for commercial use and are intended for research purposes only. For more information, please refer to the LLaMA License. | |
YuYan-dialogue | 11B | 2023-04 | 中文 | 通用 | ckpt | / | 網(wǎng)易伏羲 | Decoder | paper | |
扁鵲-1.0 | 0.7B | 2023-04 | 中文 | 醫(yī)學(xué) | ckpt | BianQue | scutcyr | Encoder-Decder | 本項(xiàng)目僅可用于您的非商業(yè)研究目的 | |
Moss-moon-003-sft-plugin | 16B | 2023-04 | 中英 | 通用 | ckpt | MOSS | 復(fù)旦大學(xué) | Decoder | 本項(xiàng)目所含代碼采用Apache 2.0協(xié)議,數(shù)據(jù)采用CC BY-NC 4.0協(xié)議,模型權(quán)重采用GNU AGPL 3.0協(xié)議。如需將本項(xiàng)目所含模型用于商業(yè)用途或公開部署,請簽署本文件并填寫此問卷取得授權(quán),商用情況僅用于記錄,不會收取任何費(fèi)用。 | |
moss-moon-003-sft | 16B | 2023-04 | 中英 | 通用 | ckpt | MOSS | 復(fù)旦大學(xué) | Decoder | 本項(xiàng)目所含代碼采用Apache 2.0協(xié)議,數(shù)據(jù)采用CC BY-NC 4.0協(xié)議,模型權(quán)重采用GNU AGPL 3.0協(xié)議。如需將本項(xiàng)目所含模型用于商業(yè)用途或公開部署,請簽署本文件并填寫此問卷取得授權(quán),商用情況僅用于記錄,不會收取任何費(fèi)用。 | |
RWKV-4-Raven | 3/7/14B | 2023-04 | 中英 | 通用 | ckpt | ChatRWKV | BlinkDL | RNN | Blog | Apache-2.0 license |
Phoenix-inst-chat-7b | 7B | 2023-04 | 中文 | 通用 | ckpt | LLMZoo | 香港中文大學(xué) | Decoder | Apache-2.0 license,DATA_LICENSE有限制 | |
Phoenix-chat-7b | 7B | 2023-04 | 中文 | 通用 | ckpt | LLMZoo | 香港中文大學(xué) | Decoder | Apache-2.0 license,DATA_LICENSE有限制 | |
ChatPLUG | 3.7B | 2023-04 | 中文 | 通用 | ckpt | ChatPLUG | 阿里巴巴 | Encoder-Decder | Paper | Apache-2.0 license |
ChatPLUG | 240M | 2023-04 | 中文 | 通用 | ckpt | ChatPLUG | 阿里巴巴 | Encoder-Decder | Paper | Apache-2.0 license |
ChatGLM-Med | 6B | 2023-04 | 中文 | 醫(yī)學(xué) | ckpt | Med-ChatGLM | 哈爾濱工業(yè)大學(xué) | Encoder-Decder | 基于 ChatGLM-6B | |
BenTsao | 7B | 2023-04 | 中文 | 醫(yī)學(xué) | lora-ckpt | Huatuo-Llama-Med-Chinese | 哈爾濱工業(yè)大學(xué) | Decder | 基于 LLaMA | |
DoctorGLM | 6B | 2023-04 | 中文 | 醫(yī)學(xué) | 待更新 | DoctorGLM | xionghonglin | Encoder-Decder | 基于 ChatGLM-6B | |
Firefly-7b1 | 7B | 2023-04 | 中文 | 通用 | ckpt | Firefly | Yang JianXin | Decoder | 未記述許可內(nèi)容,應(yīng)該是可以商用 | |
Firefly-2b6 | 2B | 2023-04 | 中文 | 通用 | ckpt | Firefly | Yang JianXin | Decoder | 未記述許可內(nèi)容,應(yīng)該是可以商用 | |
firefly-1b4 | 1B | 2023-04 | 中文 | 通用 | ckpt | Firefly | Yang JianXin | Decoder | 未記述許可內(nèi)容,應(yīng)該是可以商用 | |
Chinese-Alpaca-13B | 13B | 2023-04 | 中文 | 通用 | lora-ckpt | Chinese-LLaMA-Alpaca | Yiming Cui | Decoder | 本項(xiàng)目相關(guān)資源僅供學(xué)術(shù)研究之用,嚴(yán)禁用于商業(yè)用途。 | |
BELLE-LLAMA-13B-2M | 13B | 2023-04 | 中文 | 通用 | ckpt | BELLE | 貝殼 | Decoder | 基于 LLaMA | |
LLaMA-65B-tuned | 65B | 2023-04 | 中文 | 通用 | 待更新 | LMFlow | 香港科技大學(xué) | Decoder | 基于 LLaMA | |
LLaMA-33B-tuned | 33B | 2023-04 | 中文 | 通用 | ckpt | LMFlow | 香港科技大學(xué) | Decoder | 基于 LLaMA | |
LLaMA-13B-tuned | 13B | 2023-04 | 中文 | 通用 | ckpt | LMFlow | 香港科技大學(xué) | Decoder | 基于 LLaMA | |
LLaMA-7B-tuned | 7B | 2023-04 | 中文 | 通用 | ckpt | LMFlow | 香港科技大學(xué) | Decoder | 基于 LLaMA | |
Chinese-Vicuna | 13B | 2023-03 | 中文 | 通用 | ckpt | Chinese-Vicuna | Facico | Decoder | Facebook官方發(fā)布的LLaMA模型禁止商用,并且官方?jīng)]有正式開源模型權(quán)重(雖然網(wǎng)上已經(jīng)有很多第三方的下載地址)。為了遵循相應(yīng)的許可,目前暫時無法發(fā)布完整的模型權(quán)重,敬請各位理解(目前國外也是一樣)。Facebook完全開放模型權(quán)重之后,本項(xiàng)目會及時更新相關(guān)策略。這里發(fā)布的是LoRA權(quán)重,可以理解為原LLaMA模型上的一個“補(bǔ)丁”,兩者進(jìn)行合并即可獲得完整版權(quán)重。以下中文LLaMA/Alpaca LoRA模型無法單獨(dú)使用,需要搭配原版LLaMA模型。請參考本項(xiàng)目給出的合并模型步驟重構(gòu)模型。 | |
Chinese-Vicuna | 7B | 2023-03 | 中文 | 通用 | ckpt | Chinese-Vicuna | Facico | Decoder | Facebook官方發(fā)布的LLaMA模型禁止商用,并且官方?jīng)]有正式開源模型權(quán)重(雖然網(wǎng)上已經(jīng)有很多第三方的下載地址)。為了遵循相應(yīng)的許可,目前暫時無法發(fā)布完整的模型權(quán)重,敬請各位理解(目前國外也是一樣)。Facebook完全開放模型權(quán)重之后,本項(xiàng)目會及時更新相關(guān)策略。這里發(fā)布的是LoRA權(quán)重,可以理解為原LLaMA模型上的一個“補(bǔ)丁”,兩者進(jìn)行合并即可獲得完整版權(quán)重。以下中文LLaMA/Alpaca LoRA模型無法單獨(dú)使用,需要搭配原版LLaMA模型。請參考本項(xiàng)目給出的合并模型步驟重構(gòu)模型。 | |
ChatYuan-V2 | 0.7B | 2023-03 | 中英 | 通用 | ckpt | ChatYuan | 元語智能 | Encoder-Decder | 您不得將軟件全部或部分用于任何商業(yè)、軍事或非法目的,包括使用、復(fù)制、修改、合并、出版、分發(fā)、復(fù)制或創(chuàng)建軟件的衍生作品。 | |
Chinese-Alpaca-7B | 7B | 2023-03 | 中文 | 通用 | lora-ckpt | Chinese-LLaMA-Alpaca | Yiming Cui | Decoder | 本項(xiàng)目相關(guān)資源僅供學(xué)術(shù)研究之用,嚴(yán)禁用于商業(yè)用途。 | |
Luotuo | 7B | 2023-03 | 中文 | 通用 | ckpt | Chinese-alpaca-lora | 華中師范大學(xué) | Decoder | Apache-2.0 license、基于 LLaMA? | |
BELLE-LLAMA | 7B | 2023-03 | 中英 | 通用 | ckpt | BELLE | 貝殼 | Decoder | 基于以上模型局限性,我們要求開發(fā)者僅將我們開源的代碼、數(shù)據(jù)、模型及后續(xù)用此項(xiàng)目生成的衍生物用于研究目的,不得用于商業(yè),以及其他會對社會帶來危害的用途。 | |
BELLE-BLOOM | 7B | 2023-03 | 中英 | 通用 | ckpt | BELLE | 貝殼 | Decoder | 基于以上模型局限性,我們要求開發(fā)者僅將我們開源的代碼、數(shù)據(jù)、模型及后續(xù)用此項(xiàng)目生成的衍生物用于研究目的,不得用于商業(yè),以及其他會對社會帶來危害的用途。 | |
ChatGLM-6B | 6B | 2023-03 | 中英 | 通用 | ckpt | ChatGLM-6B | 清華大學(xué) | Encoder-Decder | You will not use, copy, modify, merge, publish, distribute, reproduce, or create derivative works of the Software, in whole or in part, for any commercial, military, or illegal purposes. | |
ChatRWKV | 7B | 2023-01 | 中英 | 小說 | ckpt | ChatRWKV | BlinkDL | RNN | Blog | Apache-2.0 license |
1.3 多模態(tài)對話大模型(MultiModal-ChatLLM)
收集包含中文的多模態(tài)大模型,具備對話等功能。
模型 | 大小 | 時間 | 語言模型 | 視覺模型 | 語言 | 領(lǐng)域 | 下載 | 項(xiàng)目地址 | 機(jī)構(gòu)/個人 | 文獻(xiàn) | 模型是否可以商用 |
---|---|---|---|---|---|---|---|---|---|---|---|
Ziya-BLIP2-14B-Visual-v1 | 14B | 2023-06 | LLaMA-13B | BLIP2 | 中英 | 通用 | ckpt | Fengshenbang-LM | IDEA研究院 | 基于 LLaMA | |
Video-LLaMA-BiLLA | 7B | 2023-05 | BiLLa-7B | MiniGPT-4 | 中英 | 通用 | ckpt | Video-LLaMA | 達(dá)摩院多語言NLP | Paper | 基于 LLaMA |
Video-LLaMA-Ziya | 13B | 2023-05 | Ziya-13B | MiniGPT-4 | 中英 | 通用 | ckpt | Video-LLaMA | 達(dá)摩院多語言NLP | Paper | 基于 LLaMA |
XrayGLM | 6B | 2023-05 | ChatGLM-6B | BLIP2-Qformer | 中英 | 醫(yī)學(xué) | ckpt-300 ckpt-3000 | XrayGLM | 澳門理工大學(xué) | 本項(xiàng)目相關(guān)資源僅供學(xué)術(shù)研究之用,嚴(yán)禁用于商業(yè)用途。 | |
VisualGLM-6B | 6B | 2023-05 | ChatGLM-6B | BLIP2-Qformer | 中英 | 通用 | ckpt | VisualGLM-6B | 清華大學(xué) | You will not use, copy, modify, merge, publish, distribute, reproduce, or create derivative works of the Software, in whole or in part, for any commercial, military, or illegal purposes. |
2. 可商用開源模型總結(jié)
2.1 基礎(chǔ)大模型(LLM)
大規(guī)模基礎(chǔ)模型:表格中只羅列出參數(shù)量
大于7B
以上模型。
模型 | 大小 | 時間 | 語言 | 領(lǐng)域 | 下載 | 項(xiàng)目地址 | 機(jī)構(gòu)/個人 | 結(jié)構(gòu) | 文獻(xiàn) | 備注 | 模型是否可以商用 |
---|---|---|---|---|---|---|---|---|---|---|---|
Baichuan-7B | 7B | 2023-06 | 中英 | ckpt | baichuan-7B | 百川智能 | Decoder | baichuan-7B 支持商用。如果將 baichuan-7B 模型或其衍生品用作商業(yè)用途,請您按照如下方式聯(lián)系許可方,以進(jìn)行登記并向許可方申請書面授權(quán):聯(lián)系郵箱:opensource@baichuan-inc.com, 具體許可協(xié)議可見《baichuan-7B 模型許可協(xié)議》。 | |||
Chinese-Falcon-7B | 7B | 2023-06 | 中英 | ckpt | Linly | 深圳大學(xué)計(jì)算機(jī)視覺研究所 | Decoder | Blog | 模型以 Apache License 2.0 協(xié)議開源,支持商業(yè)用途。 | ||
AquilaCode-7B-TS | 7B | 2023-06 | 中英 | ckpt | Aquila | 智源研究院 | Decoder | 支持開源商用許可。Aquila系列模型的源代碼基于 Apache 2.0 協(xié)議,模型權(quán)重基于《智源Aquila系列模型許可協(xié)議》,使用者在滿足許可限制的情況下,可用于商業(yè)目的。 | |||
Aquila-7B | 7B | 2023-06 | 中英 | ckpt | Aquila | 智源研究院 | Decoder | 支持開源商用許可。Aquila系列模型的源代碼基于 Apache 2.0 協(xié)議,模型權(quán)重基于《智源Aquila系列模型許可協(xié)議》,使用者在滿足許可限制的情況下,可用于商業(yè)目的。 | |||
TigerBot-7b-base | 7B | 2023-06 | 多語 | ckpt | TigerBot | 虎博科技 | Decoder | 如需將模型公開使用或者商用,模型服務(wù)所產(chǎn)生的不良影響或者有害言論由服務(wù)方負(fù)責(zé),本項(xiàng)目開發(fā)者不承擔(dān)任何因使用本項(xiàng)目(包含但不限于數(shù)據(jù)、模型、代碼等)導(dǎo)致的危害或損失。 | |||
Panda-OpenLLaMA-7B | 7B | 2023-05 | 中英 | ckpt | pandallm | dandelionsllm | Decoder | 可商用 | |||
CPM-Bee | 10B | 2023-01 | 中英 | ckpt-10B ckpt-5B | CPM-Live | OpenBMB | Decoder | 模型訓(xùn)練完成后,你可以在開放使用許可下自由下載模型參數(shù)。CPM-Live使用的是包括商業(yè)化許可的開放許可。通過模型壓縮和推理加速工具,你可以在自己的電腦上體驗(yàn)大模型的威力! | |||
BLOOM | 176B | 2022-11 | 多語 | ckpt-95000 | Megatron-DeepSpeed | BigScience | Decoder | Paper | The BigScience RAIL License | ||
BLOOMZ | 176B | 2022-11 | 多語 | ckpt-498 | Megatron-DeepSpeed | BigScience | Decoder | Paper | The BigScience RAIL License | ||
flan-t5-xxl | 11B | 2022-11 | 多語 | ckpt | t5x | encoder-decoder | paper | Apache-2.0 license | |||
CPM-Ant+ | 10B | 2022-10 | 中英 | ckpt | CPM-Live | OpenBMB | Decoder | blog | 模型訓(xùn)練完成后,你可以在開放使用許可下自由下載模型參數(shù)。CPM-Live使用的是包括商業(yè)化許可的開放許可。通過模型壓縮和推理加速工具,你可以在自己的電腦上體驗(yàn)大模型的威力! | ||
源1.0 | 245B | 2021-09 | 中文 | API申請 | Yian-1.0 | 浪潮 | Decoder | paper | 未記述許可內(nèi)容 | ||
CPM-2 | 11B | 2021-06 | 中文 | 申請下載 | CPM | 智源研究院 | encoder-decoder | paper | 未記述許可內(nèi)容 | ||
CPM-2 | 10B | 2021-06 | 中英 | 申請下載 | CPM | 智源研究院 | encoder-decoder | paper | 未記述許可內(nèi)容 | ||
CPM-2 | 200B | 2021-06 | 中英 | 申請下載 | CPM | 智源研究院 | encoder-decoder,MOE | paper | 未記述許可內(nèi)容 | ||
PanGu-Alpha | 13B | 2021-05 | 中文 | ckpt | PanGu-Alpha | 鵬城實(shí)驗(yàn)室 | Decoder | paper | Apache License 2.0 | ||
PanGu-Alpha | 200B | 2021-05 | 中文 | 待發(fā)布 | PanGu-Alpha | 鵬城實(shí)驗(yàn)室 | Decoder | paper | Apache License 2.0 | ||
PLUG | 27B | 2021-04 | 中文 | 申請下載 | AliceMind | 阿里巴巴 | encoder-decoder | Apache-2.0 license | |||
GPT-3 | 13B | 2021-04 | 中文 | 待發(fā)布 | GPT-3 | 達(dá)摩院 | Decoder | Apache-2.0 license | |||
GPT-3 | 30B | 2021-04 | 中文 | 待發(fā)布 | GPT-3 | 達(dá)摩院 | Decoder | Apache-2.0 license |
2.2 對話大模型(ChatLLM)
具備問答和對話等功能的大型語言模型。
模型 | 大小 | 時間 | 語言 | 領(lǐng)域 | 下載 | 項(xiàng)目地址 | 機(jī)構(gòu)/個人 | 結(jié)構(gòu) | 文獻(xiàn) | 模型是否可以商用 |
---|---|---|---|---|---|---|---|---|---|---|
Anima | 33B | 2023-06 | 中文 | 通用 | ckpt | Anima | Gavin Li | Decoder | Apache-2.0 license | |
AtomGPT_8k_chat | 13B | 2023-06 | 中英 | 通用 | ckpt | AtomGPT | 原子回聲 | Decoder | 本項(xiàng)目遵循apache-2.0的開源協(xié)議。使用涉及第三方代碼的部分時,請嚴(yán)格遵循相應(yīng)的開源協(xié)議。模型生成的內(nèi)容受模型計(jì)算、隨機(jī)性和量化精度損失等因素影響,本項(xiàng)目不對其準(zhǔn)確性作出保證。對于模型輸出的任何內(nèi)容,本項(xiàng)目不承擔(dān)任何法律責(zé)任,亦不對因使用相關(guān)資源和輸出結(jié)果而可能產(chǎn)生的任何損失承擔(dān)責(zé)任。 | |
AquilaChat-7B | 7B | 2023-06 | 中英 | 通用 | ckpt | Aquila | 智源研究院 | Decoder | 支持開源商用許可。Aquila系列模型的源代碼基于 Apache 2.0 協(xié)議,模型權(quán)重基于《智源Aquila系列模型許可協(xié)議》,使用者在滿足許可限制的情況下,可用于商業(yè)目的。 | |
TigerBot-sft | 180B | 2023-06 | 多語 | 通用 | ckpt | TigerBot | 虎博科技 | Decoder | 如需將模型公開使用或者商用,模型服務(wù)所產(chǎn)生的不良影響或者有害言論由服務(wù)方負(fù)責(zé),本項(xiàng)目開發(fā)者不承擔(dān)任何因使用本項(xiàng)目(包含但不限于數(shù)據(jù)、模型、代碼等)導(dǎo)致的危害或損失。 | |
TigerBot-sft | 7B | 2023-06 | 多語 | 通用 | ckpt | TigerBot | 虎博科技 | Decoder | 如需將模型公開使用或者商用,模型服務(wù)所產(chǎn)生的不良影響或者有害言論由服務(wù)方負(fù)責(zé),本項(xiàng)目開發(fā)者不承擔(dān)任何因使用本項(xiàng)目(包含但不限于數(shù)據(jù)、模型、代碼等)導(dǎo)致的危害或損失。 | |
HuatuoGPT | 7B | 2023-05 | 中文 | 醫(yī)學(xué) | ckpt | HuatuoGPT | 香港中文大學(xué) | Decoder | Paper | Apache-2.0 license |
BLOOMChat V1.0 | 176B | 2023-05 | 多語 | 通用 | ckpt | bloomchat | SambaNova Systems | Decoder | Blog | 不太明確 |
LawGPT | 6B | 2023-05 | 中文 | 法律 | lora-ckpt | LAW-GPT | hongchengliu | Encoder-Decder | 預(yù)訓(xùn)練模型是基于大量語料庫和算法模型進(jìn)行訓(xùn)練的,并且在訓(xùn)練過程中可能存在偏差、錯誤和不完整的信息。因此,本項(xiàng)目提供的預(yù)訓(xùn)練模型僅供參考和研究使用,并不能保證其準(zhǔn)確性和可靠性。使用預(yù)訓(xùn)練模型產(chǎn)生的結(jié)果可能存在誤差和偏差,不能用于實(shí)際應(yīng)用或決策。本項(xiàng)目不對使用預(yù)訓(xùn)練模型所產(chǎn)生的結(jié)果承擔(dān)任何責(zé)任,也不對因使用預(yù)訓(xùn)練模型所產(chǎn)生的任何損失承擔(dān)責(zé)任。使用者在使用預(yù)訓(xùn)練模型時應(yīng)自行承擔(dān)風(fēng)險并進(jìn)行自我驗(yàn)證。 | |
Moss-moon-003-sft-plugin | 16B | 2023-04 | 中英 | 通用 | ckpt | MOSS | 復(fù)旦大學(xué) | Decoder | 本項(xiàng)目所含代碼采用Apache 2.0協(xié)議,數(shù)據(jù)采用CC BY-NC 4.0協(xié)議,模型權(quán)重采用GNU AGPL 3.0協(xié)議。如需將本項(xiàng)目所含模型用于商業(yè)用途或公開部署,請簽署本文件并填寫此問卷取得授權(quán),商用情況僅用于記錄,不會收取任何費(fèi)用。 | |
moss-moon-003-sft | 16B | 2023-04 | 中英 | 通用 | ckpt | MOSS | 復(fù)旦大學(xué) | Decoder | 本項(xiàng)目所含代碼采用Apache 2.0協(xié)議,數(shù)據(jù)采用CC BY-NC 4.0協(xié)議,模型權(quán)重采用GNU AGPL 3.0協(xié)議。如需將本項(xiàng)目所含模型用于商業(yè)用途或公開部署,請簽署本文件并填寫此問卷取得授權(quán),商用情況僅用于記錄,不會收取任何費(fèi)用。 | |
RWKV-4-Raven | 3/7/14B | 2023-04 | 中英 | 通用 | ckpt | ChatRWKV | BlinkDL | RNN | Blog | Apache-2.0 license |
Phoenix-inst-chat-7b | 7B | 2023-04 | 中文 | 通用 | ckpt | LLMZoo | 香港中文大學(xué) | Decoder | Apache-2.0 license,DATA_LICENSE有限制 | |
Phoenix-chat-7b | 7B | 2023-04 | 中文 | 通用 | ckpt | LLMZoo | 香港中文大學(xué) | Decoder | Apache-2.0 license,DATA_LICENSE有限制 | |
ChatPLUG | 3.7B | 2023-04 | 中文 | 通用 | ckpt | ChatPLUG | 阿里巴巴 | Encoder-Decder | Paper | Apache-2.0 license |
ChatPLUG | 240M | 2023-04 | 中文 | 通用 | ckpt | ChatPLUG | 阿里巴巴 | Encoder-Decder | Paper | Apache-2.0 license |
Luotuo | 7B | 2023-03 | 中文 | 通用 | ckpt | Chinese-alpaca-lora | 華中師范大學(xué) | Decoder | Apache-2.0 license、基于 LLaMA? | |
ChatRWKV | 7B | 2023-01 | 中英 | 小說 | ckpt | ChatRWKV | BlinkDL | RNN | Blog | Apache-2.0 license |
完結(jié)!文章來源地址http://www.zghlxwxcb.cn/news/detail-496468.html
到了這里,關(guān)于開源大語言模型是否可以商用的調(diào)查報告的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!