国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

開源大語言模型是否可以商用的調(diào)查報告

這篇具有很好參考價值的文章主要介紹了開源大語言模型是否可以商用的調(diào)查報告。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報違法"按鈕提交疑問。

0. 背景

ChatGPT 火起來了,很多企業(yè)想用 ChatGPT,但是又由于企業(yè)數(shù)據(jù)的保密性,所以本地部署開源大語言模型是不二之選。

各個企業(yè)本地部署大語言模型的第一步,就是調(diào)研哪些開源大語言模型可以商用。

本文對模型是否可以商用,主要調(diào)查了各個開源模型的許可內(nèi)容及Model許可內(nèi)容。

讀者如果發(fā)現(xiàn)調(diào)查結(jié)果有需要修正的地方,歡迎在評論區(qū)留言或者發(fā)私信給我。

**免責(zé)聲明:**由于作者知識和判斷能力有限,此調(diào)查結(jié)果僅供參考,并不對調(diào)查結(jié)果負(fù)有任何責(zé)任。企業(yè)如果想使用某個開源模型,還請自行調(diào)查和判斷。

1. 調(diào)查結(jié)果

1.1 基礎(chǔ)大模型(LLM)

大規(guī)模基礎(chǔ)模型:表格中只羅列出參數(shù)量大于7B以上模型。

模型 大小 時間 語言 領(lǐng)域 下載 項(xiàng)目地址 機(jī)構(gòu)/個人 結(jié)構(gòu) 文獻(xiàn) 備注 模型是否可以商用
Baichuan-7B 7B 2023-06 中英 ckpt baichuan-7B 百川智能 Decoder baichuan-7B 支持商用。如果將 baichuan-7B 模型或其衍生品用作商業(yè)用途,請您按照如下方式聯(lián)系許可方,以進(jìn)行登記并向許可方申請書面授權(quán):聯(lián)系郵箱:opensource@baichuan-inc.com, 具體許可協(xié)議可見《baichuan-7B 模型許可協(xié)議》。
Chinese-Falcon-7B 7B 2023-06 中英 ckpt Linly 深圳大學(xué)計(jì)算機(jī)視覺研究所 Decoder Blog 模型以 Apache License 2.0 協(xié)議開源,支持商業(yè)用途。
AquilaCode-7B-TS 7B 2023-06 中英 ckpt Aquila 智源研究院 Decoder 支持開源商用許可。Aquila系列模型的源代碼基于 Apache 2.0 協(xié)議,模型權(quán)重基于《智源Aquila系列模型許可協(xié)議》,使用者在滿足許可限制的情況下,可用于商業(yè)目的。
Aquila-7B 7B 2023-06 中英 ckpt Aquila 智源研究院 Decoder 支持開源商用許可。Aquila系列模型的源代碼基于 Apache 2.0 協(xié)議,模型權(quán)重基于《智源Aquila系列模型許可協(xié)議》,使用者在滿足許可限制的情況下,可用于商業(yè)目的。
Chinese-LLaMA-33B 33B 2023-06 中英 ckpt Chinese-LLaMA-Alpaca Yiming Cui Decoder Facebook官方發(fā)布的LLaMA模型禁止商用,并且官方?jīng)]有正式開源模型權(quán)重(雖然網(wǎng)上已經(jīng)有很多第三方的下載地址)。為了遵循相應(yīng)的許可,目前暫時無法發(fā)布完整的模型權(quán)重,敬請各位理解(目前國外也是一樣)。Facebook完全開放模型權(quán)重之后,本項(xiàng)目會及時更新相關(guān)策略。這里發(fā)布的是LoRA權(quán)重,可以理解為原LLaMA模型上的一個“補(bǔ)丁”,兩者進(jìn)行合并即可獲得完整版權(quán)重。以下中文LLaMA/Alpaca LoRA模型無法單獨(dú)使用,需要搭配原版LLaMA模型。請參考本項(xiàng)目給出的合并模型步驟重構(gòu)模型。
TigerBot-7b-base 7B 2023-06 多語 ckpt TigerBot 虎博科技 Decoder 如需將模型公開使用或者商用,模型服務(wù)所產(chǎn)生的不良影響或者有害言論由服務(wù)方負(fù)責(zé),本項(xiàng)目開發(fā)者不承擔(dān)任何因使用本項(xiàng)目(包含但不限于數(shù)據(jù)、模型、代碼等)導(dǎo)致的危害或損失。
Panda-OpenLLaMA-7B 7B 2023-05 中英 ckpt pandallm dandelionsllm Decoder 可商用
Panda-13B 13B 2023-05 中英 ckpt pandallm dandelionsllm Decoder 不可商用
Panda-7B 7B 2023-05 中英 ckpt pandallm dandelionsllm Decoder 不可商用
OpenLLaMA-13B 13B 2023-05 中英 ckpt Linly 深圳大學(xué)計(jì)算機(jī)視覺研究所 Decoder Following LLaMA, our pre-trained weights are released under GNU General Public License v3.0
LaWGPT-7B 7B 2023-05 中英 法律 ckpt LawGPT Pengxiao Song Decoder 本項(xiàng)目任何資源僅供學(xué)術(shù)研究使用,嚴(yán)禁任何商業(yè)用途。
BiLLa-7B-LLM 7B 2023-05 中英 ckpt BiLLa Zhongli Li Decoder 本項(xiàng)目相關(guān)資源僅供學(xué)術(shù)研究,不得用于商業(yè)用途。
Ziya-LLaMA-7B-Reward 7B 2023-05 中英 ckpt Fengshenbang-LM IDEA研究院 Decoder Apache License 2.0 (作者注:并未明確表明禁止商用)
YuYan 11B 2023-04 中文 ckpt / 網(wǎng)易伏羲 Decoder Paper -
Chinese-LLaMA-33B 33B 2023-04 中文 ckpt Linly 深圳大學(xué)計(jì)算機(jī)視覺研究所 Decoder Blog LLaMA 原始模型權(quán)重基于 GNU General Public License v3.0 協(xié)議,僅供研究使用,不能用于商業(yè)目的。
Chinese-LLaMA-13B 13B 2023-04 中文 ckpt Linly 深圳大學(xué)計(jì)算機(jī)視覺研究所 Decoder Blog LLaMA 原始模型權(quán)重基于 GNU General Public License v3.0 協(xié)議,僅供研究使用,不能用于商業(yè)目的。
Chinese-LLaMA-7B 7B 2023-04 中文 ckpt Linly 深圳大學(xué)計(jì)算機(jī)視覺研究所 Decoder Blog LLaMA 原始模型權(quán)重基于 GNU General Public License v3.0 協(xié)議,僅供研究使用,不能用于商業(yè)目的。
OpenChineseLLaMA 7B 2023-04 中英 ckpt OpenChineseLLaMA OpenLMLab Decoder Non-commercial bespoke license
MOSS-003 16B 2023-04 中英 ckpt MOSS 復(fù)旦大學(xué) Decoder 本項(xiàng)目所含代碼采用Apache 2.0協(xié)議,數(shù)據(jù)采用CC BY-NC 4.0協(xié)議,模型權(quán)重采用GNU AGPL 3.0協(xié)議。如需將本項(xiàng)目所含模型用于商業(yè)用途或公開部署,請簽署本文件并填寫此問卷取得授權(quán),商用情況僅用于記錄,不會收取任何費(fèi)用。
BBT-2-13B-Text 13B 2023-04 中文 申請下載 BBT-FinCUGE-Applications 超對稱 Decoder Paper 未記述許可內(nèi)容
BBT-2-12B-Text 12B 2023-04 中文 申請下載 BBT-FinCUGE-Applications 超對稱 Decoder Paper 未記述許可內(nèi)容
Chinese-LLaMA-13B 13B 2023-04 中英 ckpt Chinese-LLaMA-Alpaca Yiming Cui Decoder Facebook官方發(fā)布的LLaMA模型禁止商用,并且官方?jīng)]有正式開源模型權(quán)重(雖然網(wǎng)上已經(jīng)有很多第三方的下載地址)。為了遵循相應(yīng)的許可,目前暫時無法發(fā)布完整的模型權(quán)重,敬請各位理解(目前國外也是一樣)。Facebook完全開放模型權(quán)重之后,本項(xiàng)目會及時更新相關(guān)策略。這里發(fā)布的是LoRA權(quán)重,可以理解為原LLaMA模型上的一個“補(bǔ)丁”,兩者進(jìn)行合并即可獲得完整版權(quán)重。以下中文LLaMA/Alpaca LoRA模型無法單獨(dú)使用,需要搭配原版LLaMA模型。
flan-ul2 20B 2023-03 多語 ckpt ul2 Google encoder-decoder Paper 未記述許可內(nèi)容
CPM-Bee 10B 2023-01 中英 ckpt-10B ckpt-5B CPM-Live OpenBMB Decoder 模型訓(xùn)練完成后,你可以在開放使用許可下自由下載模型參數(shù)。CPM-Live使用的是包括商業(yè)化許可的開放許可。通過模型壓縮和推理加速工具,你可以在自己的電腦上體驗(yàn)大模型的威力!
BLOOM 176B 2022-11 多語 ckpt-95000 Megatron-DeepSpeed BigScience Decoder Paper The BigScience RAIL License
BLOOMZ 176B 2022-11 多語 ckpt-498 Megatron-DeepSpeed BigScience Decoder Paper The BigScience RAIL License
flan-t5-xxl 11B 2022-11 多語 ckpt t5x Google encoder-decoder paper Apache-2.0 license
CPM-Ant+ 10B 2022-10 中英 ckpt CPM-Live OpenBMB Decoder blog 模型訓(xùn)練完成后,你可以在開放使用許可下自由下載模型參數(shù)。CPM-Live使用的是包括商業(yè)化許可的開放許可。通過模型壓縮和推理加速工具,你可以在自己的電腦上體驗(yàn)大模型的威力!
GLM 130B 2022-10 中英 申請下載 GLM-130B 清華大學(xué) Decoder paper You will not use, copy, modify, merge, publish, distribute, reproduce, or create derivative works of the Software, in whole or in part, for any commercial, military, or illegal purposes.
CPM-Ant 10B 2022-09 中文 ckpt CPM-Live OpenBMB Decoder blog 模型訓(xùn)練完成后,你可以在開放使用許可下自由下載模型參數(shù)。CPM-Live使用的是包括商業(yè)化許可的開放許可。通過模型壓縮和推理加速工具,你可以在自己的電腦上體驗(yàn)大模型的威力!
GLM 10B 2022-09 中文 ckpt GLM 清華大學(xué) Decoder paper You will not use, copy, modify, merge, publish, distribute, reproduce, or create derivative works of the Software, in whole or in part, for any commercial, military, or illegal purposes.
CodeGeeX 13B 2022-06 多語 申請下載 CodeGeeX 清華大學(xué) Decoder blog You will not use, copy, modify, merge, publish, distribute, reproduce, or create derivative works of the Software, in whole or in part, for any commercial, military, or illegal purposes.
源1.0 245B 2021-09 中文 API申請 Yian-1.0 浪潮 Decoder paper 未記述許可內(nèi)容
CPM-2 11B 2021-06 中文 申請下載 CPM 智源研究院 encoder-decoder paper 未記述許可內(nèi)容
CPM-2 10B 2021-06 中英 申請下載 CPM 智源研究院 encoder-decoder paper 未記述許可內(nèi)容
CPM-2 200B 2021-06 中英 申請下載 CPM 智源研究院 encoder-decoder,MOE paper 未記述許可內(nèi)容
PanGu-Alpha 13B 2021-05 中文 ckpt PanGu-Alpha 鵬城實(shí)驗(yàn)室 Decoder paper Apache License 2.0
PanGu-Alpha 200B 2021-05 中文 待發(fā)布 PanGu-Alpha 鵬城實(shí)驗(yàn)室 Decoder paper Apache License 2.0
PLUG 27B 2021-04 中文 申請下載 AliceMind 阿里巴巴 encoder-decoder Apache-2.0 license
GPT-3 13B 2021-04 中文 待發(fā)布 GPT-3 達(dá)摩院 Decoder Apache-2.0 license
GPT-3 30B 2021-04 中文 待發(fā)布 GPT-3 達(dá)摩院 Decoder Apache-2.0 license

1.2 對話大模型(ChatLLM)

具備問答和對話等功能的大型語言模型。

模型 大小 時間 語言 領(lǐng)域 下載 項(xiàng)目地址 機(jī)構(gòu)/個人 結(jié)構(gòu) 文獻(xiàn) 模型是否可以商用
Yayi 7B 2023-06 中英 安全、輿情、治理等 ckpt Yayi 中科聞歌 Decoder You will not use, copy, modify, merge, publish, distribute, reproduce, or create derivative works of the Software, in whole or in part, for any commercial, military, or illegal purposes.
BayLing-13B 13B 2023-06 中英 通用 ckpt BayLing 中國科學(xué)院 Decoder 模型權(quán)重(增量版本)和推理代碼在 GNU 通用公共許可證 v3.0(GPLv3)下發(fā)布。在線演示系統(tǒng)僅作為研究預(yù)覽,供非商業(yè)用途使用,并受到 LLaMA 的模型許可、OpenAI 生成數(shù)據(jù)的使用條款、ShareGPT 的隱私條例以及 WMT22 的數(shù)據(jù)許可的約束。
BayLing-7B 7B 2023-06 中英 通用 ckpt BayLing 中國科學(xué)院 Decoder 模型權(quán)重(增量版本)和推理代碼在 GNU 通用公共許可證 v3.0(GPLv3)下發(fā)布。在線演示系統(tǒng)僅作為研究預(yù)覽,供非商業(yè)用途使用,并受到 LLaMA 的模型許可、OpenAI 生成數(shù)據(jù)的使用條款、ShareGPT 的隱私條例以及 WMT22 的數(shù)據(jù)許可的約束。
MeChat 6B 2023-06 中文 心理 ckpt smile qiuhuachuan Encoder-Decder CC0-1.0 license(本項(xiàng)目開源的中文心理健康支持通用模型由 ChatGLM-6B LoRA 16-bit 指令微調(diào)得到。)
ziya-13b-medical 13b 2023-06 中英 醫(yī)學(xué) ckpt MedicalGPT Ming Xu Decoder 基于以上模型局限性,我們要求開發(fā)者僅將我們開源的模型權(quán)重及后續(xù)用此項(xiàng)目生成的衍生物用于研究目的,不得用于商業(yè),以及其他會對社會帶來危害的用途。
ZhiXi-13B-Diff 13B 2023-06 中英 通用 ckpt KnowLLM 浙江大學(xué) Decoder 基于Llama
Anima 33B 2023-06 中文 通用 ckpt Anima Gavin Li Decoder Apache-2.0 license
OpenLLaMA-Chinese-13B 13B 2023-06 中文 通用 ckpt OpenLLaMA-Chinese FittenTech Decoder We adopt the Apache License, following OpenLLaMA’s license.
OpenLLaMA-Chinese-3B 3B 2023-06 中文 通用 ckpt OpenLLaMA-Chinese FittenTech Decoder We adopt the Apache License, following OpenLLaMA’s license.
OpenLLaMA-Chinese-7B 7B 2023-06 中文 通用 ckpt OpenLLaMA-Chinese FittenTech Decoder We adopt the Apache License, following OpenLLaMA’s license.
Taoli 7B 2023-06 中英 教育 待開源 taoli 北京語言大學(xué) Decoder 本項(xiàng)目內(nèi)容僅供用于學(xué)術(shù)研究,不得用于商業(yè)以及其他會對社會帶來危害的用途。
Lawyer-llama 13B 2023-06 中英 法律 ckpt lawyer-llama Quzhe Huang Decoder 本項(xiàng)目內(nèi)容僅供用于學(xué)術(shù)研究,不得用于商業(yè)以及其他會對社會帶來危害的用途。
QiZhen-CaMA-13B 13B 2023-06 中英 醫(yī)學(xué) ckpt-3600 ckpt-6000 QiZhenGPT 浙江大學(xué) Decoder 本項(xiàng)目相關(guān)資源僅供學(xué)術(shù)研究之用,嚴(yán)禁用于商業(yè)用途。
扁鵲-2.0 6B 2023-06 中文 醫(yī)學(xué) ckpt BianQue 華南理工大學(xué) Encoder-Decder **扁鵲-2.0(BianQue-2.0)**使用了ChatGLM-6B 模型的權(quán)重,需要遵循其MODEL_LICENSE,因此,本項(xiàng)目僅可用于您的非商業(yè)研究目的。
SoulChat 6B 2023-06 中文 心理 ckpt SoulChat 華南理工大學(xué) Encoder-Decder 本項(xiàng)目使用了ChatGLM-6B 模型的權(quán)重,需要遵循其MODEL_LICENSE,因此,本項(xiàng)目僅可用于您的非商業(yè)研究目的。
openbuddy-falcon-7b-v1.5 7B 2023-06 多語 通用 ckpt OpenBuddy OpenBuddy Decoder OpenBuddy-LLaMA series models are strictly prohibited for commercial use and are intended for research purposes only. For more information, please refer to the LLaMA License.
AtomGPT_8k_chat 13B 2023-06 中英 通用 ckpt AtomGPT 原子回聲 Decoder 本項(xiàng)目遵循apache-2.0的開源協(xié)議。使用涉及第三方代碼的部分時,請嚴(yán)格遵循相應(yīng)的開源協(xié)議。模型生成的內(nèi)容受模型計(jì)算、隨機(jī)性和量化精度損失等因素影響,本項(xiàng)目不對其準(zhǔn)確性作出保證。對于模型輸出的任何內(nèi)容,本項(xiàng)目不承擔(dān)任何法律責(zé)任,亦不對因使用相關(guān)資源和輸出結(jié)果而可能產(chǎn)生的任何損失承擔(dān)責(zé)任。
AquilaChat-7B 7B 2023-06 中英 通用 ckpt Aquila 智源研究院 Decoder 支持開源商用許可。Aquila系列模型的源代碼基于 Apache 2.0 協(xié)議,模型權(quán)重基于《智源Aquila系列模型許可協(xié)議》,使用者在滿足許可限制的情況下,可用于商業(yè)目的。
YuLan-Chat-65B 65B 2023-06 中英 通用 lora-ckpt YuLan-Chat 中國人民大學(xué) Decoder YuLan-Chat uses MIT License. All data and code in this project can only be used for academic purposes.
YuLan-Chat-13B 13B 2023-06 中英 通用 lora-ckpt YuLan-Chat 中國人民大學(xué) Decoder YuLan-Chat uses MIT License. All data and code in this project can only be used for academic purposes.
Chinese-Alpaca-33B 33B 2023-06 中文 通用 lora-ckpt Chinese-LLaMA-Alpaca Yiming Cui Decoder Facebook官方發(fā)布的LLaMA模型禁止商用,并且官方?jīng)]有正式開源模型權(quán)重(雖然網(wǎng)上已經(jīng)有很多第三方的下載地址)。為了遵循相應(yīng)的許可,目前暫時無法發(fā)布完整的模型權(quán)重,敬請各位理解(目前國外也是一樣)。Facebook完全開放模型權(quán)重之后,本項(xiàng)目會及時更新相關(guān)策略。這里發(fā)布的是LoRA權(quán)重,可以理解為原LLaMA模型上的一個“補(bǔ)丁”,兩者進(jìn)行合并即可獲得完整版權(quán)重。以下中文LLaMA/Alpaca LoRA模型無法單獨(dú)使用,需要搭配原版LLaMA模型。請參考本項(xiàng)目給出的合并模型步驟重構(gòu)模型。
TigerBot-sft 180B 2023-06 多語 通用 ckpt TigerBot 虎博科技 Decoder 如需將模型公開使用或者商用,模型服務(wù)所產(chǎn)生的不良影響或者有害言論由服務(wù)方負(fù)責(zé),本項(xiàng)目開發(fā)者不承擔(dān)任何因使用本項(xiàng)目(包含但不限于數(shù)據(jù)、模型、代碼等)導(dǎo)致的危害或損失。
TigerBot-sft 7B 2023-06 多語 通用 ckpt TigerBot 虎博科技 Decoder 如需將模型公開使用或者商用,模型服務(wù)所產(chǎn)生的不良影響或者有害言論由服務(wù)方負(fù)責(zé),本項(xiàng)目開發(fā)者不承擔(dān)任何因使用本項(xiàng)目(包含但不限于數(shù)據(jù)、模型、代碼等)導(dǎo)致的危害或損失。
ChatYuan-7B 7B 2023-06 中英 通用 ckpt ChatYuan-7B ClueAI Decoder 不允許商業(yè)用途和其他潛在有害的使用場景。
Panda-Instruct-13B 13B 2023-05 中英 通用 ckpt pandallm dandelionsllm Decoder 我們要求開發(fā)者不得將我們開源的代碼、數(shù)據(jù)、模型及后續(xù)用此項(xiàng)目生成的衍生物用于任何商業(yè)(開源可商用版本OpenPandaLLM除外)以及為社會帶來危害的用途。
Panda-Instruct-7B 7B 2023-05 中英 通用 ckpt pandallm dandelionsllm Decoder 我們要求開發(fā)者不得將我們開源的代碼、數(shù)據(jù)、模型及后續(xù)用此項(xiàng)目生成的衍生物用于任何商業(yè)(開源可商用版本OpenPandaLLM除外)以及為社會帶來危害的用途。
BiLLa-7B-SFT 7B 2023-05 中英 通用 ckpt BiLLa Zhongli Li Decoder 本項(xiàng)目相關(guān)資源僅供學(xué)術(shù)研究,不得用于商業(yè)用途。
QiZhen-ChatGLM-6B 6B 2023-05 中英 醫(yī)學(xué) ckpt-2500 QiZhenGPT 浙江大學(xué) Decoder 本項(xiàng)目相關(guān)資源僅供學(xué)術(shù)研究之用,嚴(yán)禁用于商業(yè)用途。
QiZhen-Chinese-LLaMA-7B 7B 2023-05 中英 醫(yī)學(xué) ckpt-3500 ckpt-6000 QiZhenGPT 浙江大學(xué) Decoder 本項(xiàng)目相關(guān)資源僅供學(xué)術(shù)研究之用,嚴(yán)禁用于商業(yè)用途。
ChatMed-Consult 7B 2023-05 中英 醫(yī)學(xué) ckpt ChatMed michael-wzhu Decoder 本項(xiàng)目相關(guān)資源僅供學(xué)術(shù)研究之用,嚴(yán)禁用于商業(yè)用途。
LaWGPT-7B-beta1.1 7B 2023-05 中英 法律 ckpt LawGPT Pengxiao Song Decoder 本項(xiàng)目任何資源僅供學(xué)術(shù)研究使用,嚴(yán)禁任何商業(yè)用途。
LaWGPT-7B-beta1.0 7B 2023-05 中英 法律 ckpt LawGPT Pengxiao Song Decoder 本項(xiàng)目任何資源僅供學(xué)術(shù)研究使用,嚴(yán)禁任何商業(yè)用途。
Cornucopia 7B 2023-05 中英 金融 ckpt-linly-llama Cornucopia-LLaMA-Fin-Chinese yuyangmu Decoder 本項(xiàng)目相關(guān)資源僅供學(xué)術(shù)研究之用,嚴(yán)禁用于商業(yè)用途。
Cornucopia 7B 2023-05 中英 金融 ckpt-ori-fb Cornucopia-LLaMA-Fin-Chinese yuyangmu Decoder 本項(xiàng)目相關(guān)資源僅供學(xué)術(shù)研究之用,嚴(yán)禁用于商業(yè)用途。
HuatuoGPT 7B 2023-05 中文 醫(yī)學(xué) ckpt HuatuoGPT 香港中文大學(xué) Decoder Paper Apache-2.0 license
LexiLaw 6B 2023-05 中文 法律 ckpt LexiLaw Haitao Li Decoder Paper 本項(xiàng)目任何資源僅供學(xué)術(shù)研究使用,嚴(yán)禁任何商業(yè)用途。
XuanYuan 176B 2023-05 中文 金融 申請下載 XuanYuan 度小滿 Decoder Paper 軒轅作為一個開源的中文金融對話模型,僅限于非商業(yè)用途的目的。
Ziya-LLaMA-13B-v1 13B 2023-05 中英 通用 ckpt Fengshenbang-LM IDEA研究院 Decoder Blog 基于 LLaMA
BLOOMChat V1.0 176B 2023-05 多語 通用 ckpt bloomchat SambaNova Systems Decoder Blog 不太明確
BiLLa 7B 2023-05 中英 通用 ckpt BiLLa Zhongli Li Decoder 本項(xiàng)目相關(guān)資源僅供學(xué)術(shù)研究,不得用于商業(yè)用途。
Bactrian-X 13B 2023-05 多語 通用 lora-ckpt bactrian-x MBZUAI Decoder Bactrian-X is intended and licensed for research use only. The dataset is CC BY NC 4.0 (allowing only non-commercial use) and models trained using the dataset should not be used outside of research purposes.
Bactrian-X 7B 2023-05 多語 通用 lora-ckpt bactrian-x MBZUAI Decoder Bactrian-X is intended and licensed for research use only. The dataset is CC BY NC 4.0 (allowing only non-commercial use) and models trained using the dataset should not be used outside of research purposes.
Bactrian-ZH 7B 2023-05 中文 通用 lora-ckpt bactrian-x MBZUAI Decoder Bactrian-X is intended and licensed for research use only. The dataset is CC BY NC 4.0 (allowing only non-commercial use) and models trained using the dataset should not be used outside of research purposes.
LawGPT 6B 2023-05 中文 法律 lora-ckpt LAW-GPT hongchengliu Encoder-Decder 預(yù)訓(xùn)練模型是基于大量語料庫和算法模型進(jìn)行訓(xùn)練的,并且在訓(xùn)練過程中可能存在偏差、錯誤和不完整的信息。因此,本項(xiàng)目提供的預(yù)訓(xùn)練模型僅供參考和研究使用,并不能保證其準(zhǔn)確性和可靠性。使用預(yù)訓(xùn)練模型產(chǎn)生的結(jié)果可能存在誤差和偏差,不能用于實(shí)際應(yīng)用或決策。本項(xiàng)目不對使用預(yù)訓(xùn)練模型所產(chǎn)生的結(jié)果承擔(dān)任何責(zé)任,也不對因使用預(yù)訓(xùn)練模型所產(chǎn)生的任何損失承擔(dān)責(zé)任。使用者在使用預(yù)訓(xùn)練模型時應(yīng)自行承擔(dān)風(fēng)險并進(jìn)行自我驗(yàn)證。
ChatFlow-13B 13B 2023-05 中英 通用 ckpt Linly 深圳大學(xué)計(jì)算機(jī)視覺研究所 Decoder Our code and documents are released under Apache Licence 2.0 Following LLaMA, our pre-trained weights are released under GNU General Public License v3.0
ChatFlow-7B 7B 2023-05 中英 通用 ckpt Linly 深圳大學(xué)計(jì)算機(jī)視覺研究所 Decoder Our code and documents are released under Apache Licence 2.0 Following LLaMA, our pre-trained weights are released under GNU General Public License v3.0
OpenBuddy 7B 2023-05 多語 通用 ckpt OpenBuddy OpenBuddy Decoder OpenBuddy-LLaMA series models are strictly prohibited for commercial use and are intended for research purposes only. For more information, please refer to the LLaMA License.
OpenBuddy 13B 2023-05 多語 通用 ckpt OpenBuddy OpenBuddy Decoder OpenBuddy-LLaMA series models are strictly prohibited for commercial use and are intended for research purposes only. For more information, please refer to the LLaMA License.
YuYan-dialogue 11B 2023-04 中文 通用 ckpt / 網(wǎng)易伏羲 Decoder paper
扁鵲-1.0 0.7B 2023-04 中文 醫(yī)學(xué) ckpt BianQue scutcyr Encoder-Decder 本項(xiàng)目僅可用于您的非商業(yè)研究目的
Moss-moon-003-sft-plugin 16B 2023-04 中英 通用 ckpt MOSS 復(fù)旦大學(xué) Decoder 本項(xiàng)目所含代碼采用Apache 2.0協(xié)議,數(shù)據(jù)采用CC BY-NC 4.0協(xié)議,模型權(quán)重采用GNU AGPL 3.0協(xié)議。如需將本項(xiàng)目所含模型用于商業(yè)用途或公開部署,請簽署本文件并填寫此問卷取得授權(quán),商用情況僅用于記錄,不會收取任何費(fèi)用。
moss-moon-003-sft 16B 2023-04 中英 通用 ckpt MOSS 復(fù)旦大學(xué) Decoder 本項(xiàng)目所含代碼采用Apache 2.0協(xié)議,數(shù)據(jù)采用CC BY-NC 4.0協(xié)議,模型權(quán)重采用GNU AGPL 3.0協(xié)議。如需將本項(xiàng)目所含模型用于商業(yè)用途或公開部署,請簽署本文件并填寫此問卷取得授權(quán),商用情況僅用于記錄,不會收取任何費(fèi)用。
RWKV-4-Raven 3/7/14B 2023-04 中英 通用 ckpt ChatRWKV BlinkDL RNN Blog Apache-2.0 license
Phoenix-inst-chat-7b 7B 2023-04 中文 通用 ckpt LLMZoo 香港中文大學(xué) Decoder Apache-2.0 license,DATA_LICENSE有限制
Phoenix-chat-7b 7B 2023-04 中文 通用 ckpt LLMZoo 香港中文大學(xué) Decoder Apache-2.0 license,DATA_LICENSE有限制
ChatPLUG 3.7B 2023-04 中文 通用 ckpt ChatPLUG 阿里巴巴 Encoder-Decder Paper Apache-2.0 license
ChatPLUG 240M 2023-04 中文 通用 ckpt ChatPLUG 阿里巴巴 Encoder-Decder Paper Apache-2.0 license
ChatGLM-Med 6B 2023-04 中文 醫(yī)學(xué) ckpt Med-ChatGLM 哈爾濱工業(yè)大學(xué) Encoder-Decder 基于 ChatGLM-6B
BenTsao 7B 2023-04 中文 醫(yī)學(xué) lora-ckpt Huatuo-Llama-Med-Chinese 哈爾濱工業(yè)大學(xué) Decder 基于 LLaMA
DoctorGLM 6B 2023-04 中文 醫(yī)學(xué) 待更新 DoctorGLM xionghonglin Encoder-Decder 基于 ChatGLM-6B
Firefly-7b1 7B 2023-04 中文 通用 ckpt Firefly Yang JianXin Decoder 未記述許可內(nèi)容,應(yīng)該是可以商用
Firefly-2b6 2B 2023-04 中文 通用 ckpt Firefly Yang JianXin Decoder 未記述許可內(nèi)容,應(yīng)該是可以商用
firefly-1b4 1B 2023-04 中文 通用 ckpt Firefly Yang JianXin Decoder 未記述許可內(nèi)容,應(yīng)該是可以商用
Chinese-Alpaca-13B 13B 2023-04 中文 通用 lora-ckpt Chinese-LLaMA-Alpaca Yiming Cui Decoder 本項(xiàng)目相關(guān)資源僅供學(xué)術(shù)研究之用,嚴(yán)禁用于商業(yè)用途。
BELLE-LLAMA-13B-2M 13B 2023-04 中文 通用 ckpt BELLE 貝殼 Decoder 基于 LLaMA
LLaMA-65B-tuned 65B 2023-04 中文 通用 待更新 LMFlow 香港科技大學(xué) Decoder 基于 LLaMA
LLaMA-33B-tuned 33B 2023-04 中文 通用 ckpt LMFlow 香港科技大學(xué) Decoder 基于 LLaMA
LLaMA-13B-tuned 13B 2023-04 中文 通用 ckpt LMFlow 香港科技大學(xué) Decoder 基于 LLaMA
LLaMA-7B-tuned 7B 2023-04 中文 通用 ckpt LMFlow 香港科技大學(xué) Decoder 基于 LLaMA
Chinese-Vicuna 13B 2023-03 中文 通用 ckpt Chinese-Vicuna Facico Decoder Facebook官方發(fā)布的LLaMA模型禁止商用,并且官方?jīng)]有正式開源模型權(quán)重(雖然網(wǎng)上已經(jīng)有很多第三方的下載地址)。為了遵循相應(yīng)的許可,目前暫時無法發(fā)布完整的模型權(quán)重,敬請各位理解(目前國外也是一樣)。Facebook完全開放模型權(quán)重之后,本項(xiàng)目會及時更新相關(guān)策略。這里發(fā)布的是LoRA權(quán)重,可以理解為原LLaMA模型上的一個“補(bǔ)丁”,兩者進(jìn)行合并即可獲得完整版權(quán)重。以下中文LLaMA/Alpaca LoRA模型無法單獨(dú)使用,需要搭配原版LLaMA模型。請參考本項(xiàng)目給出的合并模型步驟重構(gòu)模型。
Chinese-Vicuna 7B 2023-03 中文 通用 ckpt Chinese-Vicuna Facico Decoder Facebook官方發(fā)布的LLaMA模型禁止商用,并且官方?jīng)]有正式開源模型權(quán)重(雖然網(wǎng)上已經(jīng)有很多第三方的下載地址)。為了遵循相應(yīng)的許可,目前暫時無法發(fā)布完整的模型權(quán)重,敬請各位理解(目前國外也是一樣)。Facebook完全開放模型權(quán)重之后,本項(xiàng)目會及時更新相關(guān)策略。這里發(fā)布的是LoRA權(quán)重,可以理解為原LLaMA模型上的一個“補(bǔ)丁”,兩者進(jìn)行合并即可獲得完整版權(quán)重。以下中文LLaMA/Alpaca LoRA模型無法單獨(dú)使用,需要搭配原版LLaMA模型。請參考本項(xiàng)目給出的合并模型步驟重構(gòu)模型。
ChatYuan-V2 0.7B 2023-03 中英 通用 ckpt ChatYuan 元語智能 Encoder-Decder 您不得將軟件全部或部分用于任何商業(yè)、軍事或非法目的,包括使用、復(fù)制、修改、合并、出版、分發(fā)、復(fù)制或創(chuàng)建軟件的衍生作品。
Chinese-Alpaca-7B 7B 2023-03 中文 通用 lora-ckpt Chinese-LLaMA-Alpaca Yiming Cui Decoder 本項(xiàng)目相關(guān)資源僅供學(xué)術(shù)研究之用,嚴(yán)禁用于商業(yè)用途。
Luotuo 7B 2023-03 中文 通用 ckpt Chinese-alpaca-lora 華中師范大學(xué) Decoder Apache-2.0 license、基于 LLaMA?
BELLE-LLAMA 7B 2023-03 中英 通用 ckpt BELLE 貝殼 Decoder 基于以上模型局限性,我們要求開發(fā)者僅將我們開源的代碼、數(shù)據(jù)、模型及后續(xù)用此項(xiàng)目生成的衍生物用于研究目的,不得用于商業(yè),以及其他會對社會帶來危害的用途。
BELLE-BLOOM 7B 2023-03 中英 通用 ckpt BELLE 貝殼 Decoder 基于以上模型局限性,我們要求開發(fā)者僅將我們開源的代碼、數(shù)據(jù)、模型及后續(xù)用此項(xiàng)目生成的衍生物用于研究目的,不得用于商業(yè),以及其他會對社會帶來危害的用途。
ChatGLM-6B 6B 2023-03 中英 通用 ckpt ChatGLM-6B 清華大學(xué) Encoder-Decder You will not use, copy, modify, merge, publish, distribute, reproduce, or create derivative works of the Software, in whole or in part, for any commercial, military, or illegal purposes.
ChatRWKV 7B 2023-01 中英 小說 ckpt ChatRWKV BlinkDL RNN Blog Apache-2.0 license

1.3 多模態(tài)對話大模型(MultiModal-ChatLLM)

收集包含中文的多模態(tài)大模型,具備對話等功能。

模型 大小 時間 語言模型 視覺模型 語言 領(lǐng)域 下載 項(xiàng)目地址 機(jī)構(gòu)/個人 文獻(xiàn) 模型是否可以商用
Ziya-BLIP2-14B-Visual-v1 14B 2023-06 LLaMA-13B BLIP2 中英 通用 ckpt Fengshenbang-LM IDEA研究院 基于 LLaMA
Video-LLaMA-BiLLA 7B 2023-05 BiLLa-7B MiniGPT-4 中英 通用 ckpt Video-LLaMA 達(dá)摩院多語言NLP Paper 基于 LLaMA
Video-LLaMA-Ziya 13B 2023-05 Ziya-13B MiniGPT-4 中英 通用 ckpt Video-LLaMA 達(dá)摩院多語言NLP Paper 基于 LLaMA
XrayGLM 6B 2023-05 ChatGLM-6B BLIP2-Qformer 中英 醫(yī)學(xué) ckpt-300 ckpt-3000 XrayGLM 澳門理工大學(xué) 本項(xiàng)目相關(guān)資源僅供學(xué)術(shù)研究之用,嚴(yán)禁用于商業(yè)用途。
VisualGLM-6B 6B 2023-05 ChatGLM-6B BLIP2-Qformer 中英 通用 ckpt VisualGLM-6B 清華大學(xué) You will not use, copy, modify, merge, publish, distribute, reproduce, or create derivative works of the Software, in whole or in part, for any commercial, military, or illegal purposes.

2. 可商用開源模型總結(jié)

2.1 基礎(chǔ)大模型(LLM)

大規(guī)模基礎(chǔ)模型:表格中只羅列出參數(shù)量大于7B以上模型。

模型 大小 時間 語言 領(lǐng)域 下載 項(xiàng)目地址 機(jī)構(gòu)/個人 結(jié)構(gòu) 文獻(xiàn) 備注 模型是否可以商用
Baichuan-7B 7B 2023-06 中英 ckpt baichuan-7B 百川智能 Decoder baichuan-7B 支持商用。如果將 baichuan-7B 模型或其衍生品用作商業(yè)用途,請您按照如下方式聯(lián)系許可方,以進(jìn)行登記并向許可方申請書面授權(quán):聯(lián)系郵箱:opensource@baichuan-inc.com, 具體許可協(xié)議可見《baichuan-7B 模型許可協(xié)議》。
Chinese-Falcon-7B 7B 2023-06 中英 ckpt Linly 深圳大學(xué)計(jì)算機(jī)視覺研究所 Decoder Blog 模型以 Apache License 2.0 協(xié)議開源,支持商業(yè)用途。
AquilaCode-7B-TS 7B 2023-06 中英 ckpt Aquila 智源研究院 Decoder 支持開源商用許可。Aquila系列模型的源代碼基于 Apache 2.0 協(xié)議,模型權(quán)重基于《智源Aquila系列模型許可協(xié)議》,使用者在滿足許可限制的情況下,可用于商業(yè)目的。
Aquila-7B 7B 2023-06 中英 ckpt Aquila 智源研究院 Decoder 支持開源商用許可。Aquila系列模型的源代碼基于 Apache 2.0 協(xié)議,模型權(quán)重基于《智源Aquila系列模型許可協(xié)議》,使用者在滿足許可限制的情況下,可用于商業(yè)目的。
TigerBot-7b-base 7B 2023-06 多語 ckpt TigerBot 虎博科技 Decoder 如需將模型公開使用或者商用,模型服務(wù)所產(chǎn)生的不良影響或者有害言論由服務(wù)方負(fù)責(zé),本項(xiàng)目開發(fā)者不承擔(dān)任何因使用本項(xiàng)目(包含但不限于數(shù)據(jù)、模型、代碼等)導(dǎo)致的危害或損失。
Panda-OpenLLaMA-7B 7B 2023-05 中英 ckpt pandallm dandelionsllm Decoder 可商用
CPM-Bee 10B 2023-01 中英 ckpt-10B ckpt-5B CPM-Live OpenBMB Decoder 模型訓(xùn)練完成后,你可以在開放使用許可下自由下載模型參數(shù)。CPM-Live使用的是包括商業(yè)化許可的開放許可。通過模型壓縮和推理加速工具,你可以在自己的電腦上體驗(yàn)大模型的威力!
BLOOM 176B 2022-11 多語 ckpt-95000 Megatron-DeepSpeed BigScience Decoder Paper The BigScience RAIL License
BLOOMZ 176B 2022-11 多語 ckpt-498 Megatron-DeepSpeed BigScience Decoder Paper The BigScience RAIL License
flan-t5-xxl 11B 2022-11 多語 ckpt t5x Google encoder-decoder paper Apache-2.0 license
CPM-Ant+ 10B 2022-10 中英 ckpt CPM-Live OpenBMB Decoder blog 模型訓(xùn)練完成后,你可以在開放使用許可下自由下載模型參數(shù)。CPM-Live使用的是包括商業(yè)化許可的開放許可。通過模型壓縮和推理加速工具,你可以在自己的電腦上體驗(yàn)大模型的威力!
源1.0 245B 2021-09 中文 API申請 Yian-1.0 浪潮 Decoder paper 未記述許可內(nèi)容
CPM-2 11B 2021-06 中文 申請下載 CPM 智源研究院 encoder-decoder paper 未記述許可內(nèi)容
CPM-2 10B 2021-06 中英 申請下載 CPM 智源研究院 encoder-decoder paper 未記述許可內(nèi)容
CPM-2 200B 2021-06 中英 申請下載 CPM 智源研究院 encoder-decoder,MOE paper 未記述許可內(nèi)容
PanGu-Alpha 13B 2021-05 中文 ckpt PanGu-Alpha 鵬城實(shí)驗(yàn)室 Decoder paper Apache License 2.0
PanGu-Alpha 200B 2021-05 中文 待發(fā)布 PanGu-Alpha 鵬城實(shí)驗(yàn)室 Decoder paper Apache License 2.0
PLUG 27B 2021-04 中文 申請下載 AliceMind 阿里巴巴 encoder-decoder Apache-2.0 license
GPT-3 13B 2021-04 中文 待發(fā)布 GPT-3 達(dá)摩院 Decoder Apache-2.0 license
GPT-3 30B 2021-04 中文 待發(fā)布 GPT-3 達(dá)摩院 Decoder Apache-2.0 license

2.2 對話大模型(ChatLLM)

具備問答和對話等功能的大型語言模型。

模型 大小 時間 語言 領(lǐng)域 下載 項(xiàng)目地址 機(jī)構(gòu)/個人 結(jié)構(gòu) 文獻(xiàn) 模型是否可以商用
Anima 33B 2023-06 中文 通用 ckpt Anima Gavin Li Decoder Apache-2.0 license
AtomGPT_8k_chat 13B 2023-06 中英 通用 ckpt AtomGPT 原子回聲 Decoder 本項(xiàng)目遵循apache-2.0的開源協(xié)議。使用涉及第三方代碼的部分時,請嚴(yán)格遵循相應(yīng)的開源協(xié)議。模型生成的內(nèi)容受模型計(jì)算、隨機(jī)性和量化精度損失等因素影響,本項(xiàng)目不對其準(zhǔn)確性作出保證。對于模型輸出的任何內(nèi)容,本項(xiàng)目不承擔(dān)任何法律責(zé)任,亦不對因使用相關(guān)資源和輸出結(jié)果而可能產(chǎn)生的任何損失承擔(dān)責(zé)任。
AquilaChat-7B 7B 2023-06 中英 通用 ckpt Aquila 智源研究院 Decoder 支持開源商用許可。Aquila系列模型的源代碼基于 Apache 2.0 協(xié)議,模型權(quán)重基于《智源Aquila系列模型許可協(xié)議》,使用者在滿足許可限制的情況下,可用于商業(yè)目的。
TigerBot-sft 180B 2023-06 多語 通用 ckpt TigerBot 虎博科技 Decoder 如需將模型公開使用或者商用,模型服務(wù)所產(chǎn)生的不良影響或者有害言論由服務(wù)方負(fù)責(zé),本項(xiàng)目開發(fā)者不承擔(dān)任何因使用本項(xiàng)目(包含但不限于數(shù)據(jù)、模型、代碼等)導(dǎo)致的危害或損失。
TigerBot-sft 7B 2023-06 多語 通用 ckpt TigerBot 虎博科技 Decoder 如需將模型公開使用或者商用,模型服務(wù)所產(chǎn)生的不良影響或者有害言論由服務(wù)方負(fù)責(zé),本項(xiàng)目開發(fā)者不承擔(dān)任何因使用本項(xiàng)目(包含但不限于數(shù)據(jù)、模型、代碼等)導(dǎo)致的危害或損失。
HuatuoGPT 7B 2023-05 中文 醫(yī)學(xué) ckpt HuatuoGPT 香港中文大學(xué) Decoder Paper Apache-2.0 license
BLOOMChat V1.0 176B 2023-05 多語 通用 ckpt bloomchat SambaNova Systems Decoder Blog 不太明確
LawGPT 6B 2023-05 中文 法律 lora-ckpt LAW-GPT hongchengliu Encoder-Decder 預(yù)訓(xùn)練模型是基于大量語料庫和算法模型進(jìn)行訓(xùn)練的,并且在訓(xùn)練過程中可能存在偏差、錯誤和不完整的信息。因此,本項(xiàng)目提供的預(yù)訓(xùn)練模型僅供參考和研究使用,并不能保證其準(zhǔn)確性和可靠性。使用預(yù)訓(xùn)練模型產(chǎn)生的結(jié)果可能存在誤差和偏差,不能用于實(shí)際應(yīng)用或決策。本項(xiàng)目不對使用預(yù)訓(xùn)練模型所產(chǎn)生的結(jié)果承擔(dān)任何責(zé)任,也不對因使用預(yù)訓(xùn)練模型所產(chǎn)生的任何損失承擔(dān)責(zé)任。使用者在使用預(yù)訓(xùn)練模型時應(yīng)自行承擔(dān)風(fēng)險并進(jìn)行自我驗(yàn)證。
Moss-moon-003-sft-plugin 16B 2023-04 中英 通用 ckpt MOSS 復(fù)旦大學(xué) Decoder 本項(xiàng)目所含代碼采用Apache 2.0協(xié)議,數(shù)據(jù)采用CC BY-NC 4.0協(xié)議,模型權(quán)重采用GNU AGPL 3.0協(xié)議。如需將本項(xiàng)目所含模型用于商業(yè)用途或公開部署,請簽署本文件并填寫此問卷取得授權(quán),商用情況僅用于記錄,不會收取任何費(fèi)用。
moss-moon-003-sft 16B 2023-04 中英 通用 ckpt MOSS 復(fù)旦大學(xué) Decoder 本項(xiàng)目所含代碼采用Apache 2.0協(xié)議,數(shù)據(jù)采用CC BY-NC 4.0協(xié)議,模型權(quán)重采用GNU AGPL 3.0協(xié)議。如需將本項(xiàng)目所含模型用于商業(yè)用途或公開部署,請簽署本文件并填寫此問卷取得授權(quán),商用情況僅用于記錄,不會收取任何費(fèi)用。
RWKV-4-Raven 3/7/14B 2023-04 中英 通用 ckpt ChatRWKV BlinkDL RNN Blog Apache-2.0 license
Phoenix-inst-chat-7b 7B 2023-04 中文 通用 ckpt LLMZoo 香港中文大學(xué) Decoder Apache-2.0 license,DATA_LICENSE有限制
Phoenix-chat-7b 7B 2023-04 中文 通用 ckpt LLMZoo 香港中文大學(xué) Decoder Apache-2.0 license,DATA_LICENSE有限制
ChatPLUG 3.7B 2023-04 中文 通用 ckpt ChatPLUG 阿里巴巴 Encoder-Decder Paper Apache-2.0 license
ChatPLUG 240M 2023-04 中文 通用 ckpt ChatPLUG 阿里巴巴 Encoder-Decder Paper Apache-2.0 license
Luotuo 7B 2023-03 中文 通用 ckpt Chinese-alpaca-lora 華中師范大學(xué) Decoder Apache-2.0 license、基于 LLaMA?
ChatRWKV 7B 2023-01 中英 小說 ckpt ChatRWKV BlinkDL RNN Blog Apache-2.0 license

完結(jié)!文章來源地址http://www.zghlxwxcb.cn/news/detail-496468.html

到了這里,關(guān)于開源大語言模型是否可以商用的調(diào)查報告的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 基于web的問卷調(diào)查系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn) 畢業(yè)設(shè)計(jì)開題報告

    ?博主介紹 :《Vue.js入門與商城開發(fā)實(shí)戰(zhàn)》《微信小程序商城開發(fā)》圖書作者,CSDN博客專家,在線教育專家,CSDN鉆石講師;專注大學(xué)生畢業(yè)設(shè)計(jì)教育和輔導(dǎo)。 所有項(xiàng)目都配有從入門到精通的基礎(chǔ)知識視頻課程,免費(fèi) 項(xiàng)目配有對應(yīng)開發(fā)文檔、開題報告、任務(wù)書、PPT、論文模版

    2024年02月04日
    瀏覽(24)
  • 【AI實(shí)戰(zhàn)】開源且可商用的 40B 大語言模型 Falcon 40B

    【AI實(shí)戰(zhàn)】開源且可商用的 40B 大語言模型 Falcon 40B

    官網(wǎng) https://www.tii.ae/news/uaes-technology-innovation-institute-launches-open-source-falcon-40b-large-language-model Abu Dhabi-UAE: 25 May, 2023 – The Technology Innovation Institute (TII), a leading global scientific research center and the applied research pillar of Abu Dhabi’s Advanced Technology Research Council (ATRC), today strengthened its gro

    2024年02月07日
    瀏覽(20)
  • 中文版開源Llama 2同時有了語言、多模態(tài)大模型,完全可商用

    中文版開源Llama 2同時有了語言、多模態(tài)大模型,完全可商用

    可以說,AI 初創(chuàng)公司 LinkSoul.Al 的這些開源項(xiàng)目讓海外開源大模型在國內(nèi)的普及和推廣速度與國際幾乎保持了一致。 7 月 19 日,Meta 終于發(fā)布了免費(fèi)可商用版本?Llama 2,讓開源大模型領(lǐng)域的格局發(fā)生了巨大變化。 Llama 2 模型系列包含 70 億、130 億和 700 億三種參數(shù)變體,相比上

    2024年02月14日
    瀏覽(29)
  • 【AI實(shí)戰(zhàn)】開源可商用的中英文大語言模型baichuan-7B,從零開始搭建

    【AI實(shí)戰(zhàn)】開源可商用的中英文大語言模型baichuan-7B,從零開始搭建

    baichuan-7B 是由百川智能開發(fā)的一個開源可商用的大規(guī)模預(yù)訓(xùn)練語言模型?;?Transformer 結(jié)構(gòu),在大約1.2萬億 tokens 上訓(xùn)練的70億參數(shù)模型,支持中英雙語,上下文窗口長度為4096。在標(biāo)準(zhǔn)的中文和英文權(quán)威 benchmark(C-EVAL/MMLU)上均取得同尺寸最好的效果。 GitHub: https://github.c

    2024年02月09日
    瀏覽(19)
  • 【大模型】更強(qiáng)的開源可商用的中英文大語言模型baichuan2來了,從零開始搭建

    baichuan-7B 可以查看這篇文章: 【AI實(shí)戰(zhàn)】開源可商用的中英文大語言模型baichuan-7B,從零開始搭建 Baichuan 2 是百川智能推出的第二代開源大語言模型,采用 2.6 萬億 Tokens 的高質(zhì)量語料訓(xùn)練。 Baichuan 2 在多個權(quán)威的中文、英文和多語言的通用、領(lǐng)域 benchmark 上取得同尺寸最佳的

    2024年02月09日
    瀏覽(24)
  • 開發(fā)中需要注意的問 github中的開源軟件可以用來商用嗎

    開發(fā)中需要注意的問 github中的開源軟件可以用來商用嗎

    首先拋出問題,為什么要注意對開源項(xiàng)目的使用 github篇 看開源協(xié)議!看開源協(xié)議!看開源協(xié)議! 一般開源協(xié)議會有具體的軟件使用說明。

    2024年02月11日
    瀏覽(17)
  • 一文匯總開源大語言模型,人人都可以擁有自己的ChatGPT

    OpenAI發(fā)布的ChatGPT火爆全球以來,全球互聯(lián)網(wǎng)大廠陸續(xù)跟進(jìn),紛紛宣布了自家的Chat產(chǎn)品,如Google的Bard,百度的文心一言,阿里的通義千問等等。 這些Chat產(chǎn)品背后都是依賴的大語言模型(Large Language Model)。 如果是做一個垂直領(lǐng)域的Chat產(chǎn)品,有2種方案: 直接使用商業(yè)化產(chǎn)品,前

    2024年02月05日
    瀏覽(31)
  • Meta發(fā)布升級大模型LLaMA 2:開源可商用

    Meta發(fā)布升級大模型LLaMA 2:開源可商用

    論文地址 :https://ai.meta.com/research/publications/llama-2-open-foundation-and-fine-tuned-chat-models/? Github 地址 :https://github.com/facebookresearch/llama LLaMA 2介紹 ? ? ??Meta之前發(fā)布自了半開源的大模型LLaMA,自從LLaMA發(fā)布以來,基于它的擴(kuò)展模型就層出不窮,尤其是羊駝系列,我最近正在總結(jié)這

    2024年02月16日
    瀏覽(17)
  • 650億參數(shù)大模型預(yù)訓(xùn)練方案開源可商用,LLaMA訓(xùn)練加速38%

    650億參數(shù)大模型的預(yù)訓(xùn)練方案,發(fā)布即開源。 訓(xùn)練速度較傳統(tǒng)方案提升38%。 這就是由Colossal-AI最新發(fā)布的類LLaMA基礎(chǔ)大模型預(yù)訓(xùn)練方案。 要知道,在“百模大戰(zhàn)”背景下,誰擁有自家大模型,往往被視為核心競爭力。 在這個節(jié)點(diǎn)下,愿意開源大模型的公司少之又少。 但自己

    2024年02月16日
    瀏覽(22)
  • 阿里云開源通義千問720億參數(shù)模型,性能超越大部分商用閉源大模型

    阿里云開源通義千問720億參數(shù)模型,性能超越大部分商用閉源大模型

    12月1日,阿里云舉辦通義千問發(fā)布會,開源通義千問720億參數(shù)模型Qwen-72B。Qwen-72B在10個權(quán)威基準(zhǔn)測評創(chuàng)下開源模型最優(yōu)成績,成為業(yè)界最強(qiáng)開源大模型,性能超越開源標(biāo)桿Llama 2-70B和大部分商用閉源模型。未來,企業(yè)級、科研級的高性能應(yīng)用,也有了開源大模型這一選項(xiàng)。 通

    2024年02月03日
    瀏覽(95)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包