數(shù)據(jù)主要來源于 【數(shù)據(jù)學(xué)習(xí)】的整理和匯總。
1.說明
1.1 開源模型
- 免費、本地部署安全性高
- 部分開源模型版本相對落后、硬件資源需求高、性能一般
- 技術(shù)門檻高、需要進(jìn)行一定量的開發(fā)工作
- 更新維護(hù)成本較高
1.2 大模型接口
- 付費(按需收費)、非本地部署可能存在數(shù)據(jù)安全問題
- 模型較新、無需硬件資源、性能好
- 開發(fā)工作量相對較少
- 實時更新無需維護(hù)
2.開源模型整理
2.1 ChatGLM
- ChatGLM-6B(發(fā)布時間:2023-03-14;模型文件大?。?3.5GB)https://github.com/THUDM/ChatGLM-6B
ChatGLM 是由清華大學(xué) KEG 實驗室和智譜 AI 基于千億基座模型 GLM-130B (General Language Model 通用語言模型)開發(fā)的對話語言模型。ChatGLM 在 GLM-130B 的基礎(chǔ)上持續(xù)進(jìn)行文本和代碼預(yù)訓(xùn)練并通過有監(jiān)督微調(diào)等技術(shù)實現(xiàn)人類意圖對齊,具備文案寫作、信息抽取、角色扮演、問答、對話等能力。
量化等級 | 最低GPU顯存 |
---|---|
FP16(無量化) | 13GB |
INT8 | 10GB |
INT4 | 6GB |
- ChatGLM2-6B(發(fā)布時間:2023-06-25;模型文件大?。?2.5GB)https://github.com/THUDM/ChatGLM2-6B
基座模型使用了GLM模型的混合目標(biāo)函數(shù),在1.4萬億中英文tokens數(shù)據(jù)集上訓(xùn)練,并做了模型對齊,第二代在各項任務(wù)中的提升幅度如下:
評測任務(wù) | 任務(wù)類型 | ChatGLM-6B得分 | ChatGLM2-6B得分 | 提升幅度 |
---|---|---|---|---|
MMLU | 英文語言理解 | 40.63 | 47.86 | ↑ 23% |
CEval | 中文大語言模型評估 | 38.9 | 51.7 | ↑ 33% |
GSM8K | 數(shù)學(xué)(英文版) | 4.82 | 32.37 | ↑ 571% |
BBH | 大語言模型的BIG-Bench Hard任務(wù) | 18.73 | 33.68 | ↑ 60% |
更長的上下文:在第一代ChatGLM-6B上,模型的最高上下文長度是2K。而第二代的ChatGLM2-6B的基座模型使用了FlashAttention技術(shù),升級到32K。而據(jù)此微調(diào)的對話模型ChatGLM2-6B則可以在8K長度上下文條件下自由流暢進(jìn)行對話。因此,支持更多輪次的對話,并且官方表示將在后續(xù)繼續(xù)優(yōu)化上下文長度限制。
更高效的推理:ChatGLM2-6B使用了Multi-Query Attention技術(shù),可以在更低地顯存資源下以更快的速度進(jìn)行推理,推理速度相比第一代提升42%!同時,在INT4量化模型中,6G顯存的對話長度由1K提升到了8K!
量化等級 | 編碼 2048 長度的最小顯存 | 生成 8192 長度的最小顯存 |
---|---|---|
FP16 / BF16 | 13.1 GB | 12.8 GB |
INT8 | 8.2 GB | 8.1 GB |
INT4 | 5.5 GB | 5.1 GB |
2.2 Baichuan
Baichuan Intelligent Technology是搜狗創(chuàng)始人王小川創(chuàng)辦的一家人工智能企業(yè)。
- Baichuan-7B(發(fā)布時間:2023-09-06;模型文件大?。?4GB)https://github.com/baichuan-inc/Baichuan-7B
是由百川智能開發(fā)的一個開源可商用的大規(guī)模預(yù)訓(xùn)練語言模型。基于 Transformer 結(jié)構(gòu),在大約 1.2 萬億 tokens 上訓(xùn)練的 70 億參數(shù)模型,支持中英雙語,上下文窗口長度為 4096。在標(biāo)準(zhǔn)的中文和英文 benchmark(C-Eval/MMLU)上均取得同尺寸最好的效果。
- Baichuan-13B-Chat(發(fā)布時間:2023-07-08;模型文件大?。?6.6GB)https://github.com/baichuan-inc/Baichuan-13B
Baichuan-13B 是由百川智能繼 Baichuan-7B 之后開發(fā)的包含 130 億參數(shù)的開源可商用的大規(guī)模語言模型,在權(quán)威的中文和英文 benchmark 上均取得同尺寸最好的效果。本次發(fā)布包含有預(yù)訓(xùn)練 (Baichuan-13B-Base) 和對齊 (Baichuan-13B-Chat) 兩個版本。Baichuan-13B 有如下幾個特點:
- 更大尺寸、更多數(shù)據(jù):Baichuan-13B 在 Baichuan-7B 的基礎(chǔ)上進(jìn)一步擴(kuò)大參數(shù)量到 130 億,并且在高質(zhì)量的語料上訓(xùn)練了 1.4 萬億 tokens,超過 LLaMA-13B 40%,是當(dāng)前開源 13B 尺寸下訓(xùn)練數(shù)據(jù)量最多的模型。支持中英雙語,使用 ALiBi 位置編碼,上下文窗口長度為 4096。
- 同時開源預(yù)訓(xùn)練和對齊模型:預(yù)訓(xùn)練模型是適用開發(fā)者的『 基座 』,而廣大普通用戶對有對話功能的對齊模型具有更強(qiáng)的需求。因此本次開源我們同時發(fā)布了對齊模型(Baichuan-13B-Chat),具有很強(qiáng)的對話能力,開箱即用,幾行代碼即可簡單的部署。
- 更高效的推理:為了支持更廣大用戶的使用,我們本次同時開源了 int8 和 int4 的量化版本,相對非量化版本在幾乎沒有效果損失的情況下大大降低了部署的機(jī)器資源門檻,可以部署在如 Nvidia 3090 這樣的消費級顯卡上。
- 開源免費可商用:Baichuan-13B 不僅對學(xué)術(shù)研究完全開放,開發(fā)者也僅需郵件申請并獲得官方商用許可后,即可以免費商用。
量化等級 | 最低GPU顯存 |
---|---|
bf16 / fp16 | 26.0GB |
int8 | 15.8GB |
int4 | 9.7GB |
注意:CPU部署需要60GB內(nèi)存。
- Baichuan2(發(fā)布時間:2023-12-29;模型文件大?。?B-15GB 13B-27.8GB)https://github.com/baichuan-inc/Baichuan2
Baichuan 2 是百川智能推出的新一代開源大語言模型,采用 2.6 萬億 Tokens 的高質(zhì)量語料訓(xùn)練。在多個權(quán)威的中文、英文和多語言的通用、領(lǐng)域 benchmark 上取得同尺寸最佳的效果。包含有 7B、13B 的 Base 和 Chat 版本,并提供了 Chat 版本的 4bits 量化。
量化前后顯存占用對比 (GPU Mem in GB)
量化等級 | Baichuan2-7B | Baichuan2-13B |
---|---|---|
bf16 / fp16 | 15.3 | 27.5 |
8bits | 8.0 | 16.1 |
4bits | 5.1 | 8.6 |
2.3 Qwen
https://github.com/QwenLM/Qwen
阿里通義千問發(fā)布了的Qwen-7B(發(fā)布時間:2023-08-03;模型文件大小:15.4GB)和Qwen-14B(發(fā)布時間:2023-09-24;模型文件大?。?8.32GB),是互聯(lián)網(wǎng)廠商中目前最受歡迎的開源大模型,它的優(yōu)勢是在于阿里的強(qiáng)大生態(tài)體系以及應(yīng)用。Qwen系列模型相比同規(guī)模模型均實現(xiàn)了效果的顯著提升。評測的數(shù)據(jù)集包括MMLU、C-Eval、 GSM8K、 MATH、HumanEval、MBPP、BBH等數(shù)據(jù)集,考察的能力包括自然語言理解、知識、數(shù)學(xué)計算和推理、代碼生成、邏輯推理等。Qwen-72B(發(fā)布時間:2023-11-30;模型文件大?。?40GB)在所有任務(wù)上均超越了LLaMA2-70B的性能,同時在10項任務(wù)中的7項任務(wù)中超越GPT-3.5。
模型 | 開源日期 | 最大上下文長度 | System Prompt強(qiáng)化 | 預(yù)訓(xùn)練token數(shù) | 微調(diào)(Q-Lora)最小GPU用量 | 生成2048個token的最小顯存占用 | 工具調(diào)用 |
---|---|---|---|---|---|---|---|
Qwen-1.8B | 23.11.30 | 32K | ? | 2.2T | 5.8GB | 2.9GB | ? |
Qwen-7B | 23.08.03 | 32K | ? | 2.4T | 11.5GB | 8.2GB | ? |
Qwen-14B | 23.09.25 | 8K | ? | 3.0T | 18.7GB | 13.0GB | ? |
Qwen-72B | 23.11.30 | 32K | ? | 3.0T | 61.4GB | 48.9GB | ? |
2.4 Yi
https://github.com/01-ai/Yi
零一萬物(01.AI)https://www.lingyiwanwu.com 是由李開復(fù)在2023年3月份創(chuàng)辦的一家大模型創(chuàng)業(yè)企業(yè),并在2023年6月份正式開始運營。在2023年11月6日,零一萬物開源了4個大語言模型,包括Yi-6B(模型文件大?。?2.12GB)、Yi-6B-200K、Yi-34B(模型文件大?。?2GB)、Yi-34B-200k。模型在MMLU的評分上登頂,最高支持200K超長上下文輸入,獲得了社區(qū)的廣泛關(guān)注。
Model | Minimum VRAM | Recommended GPU Example |
---|---|---|
Yi-6B-Chat | 15 GB | RTX 3090 / RTX 4090 / A10 / A30 |
Yi-6B-Chat-4bits | 4 GB | RTX 3060 / RTX 4060 |
Yi-6B-Chat-8bits | 8 GB | RTX 3070 / RTX 4060 |
Yi-34B-Chat | 72 GB | 4 x RTX 4090 / A800 (80GB) |
Yi-34B-Chat-4bits | 20 GB | RTX 3090 / RTX 4090 / A10 / A30 / A100 (40GB) |
Yi-34B-Chat-8bits | 38 GB | 2 x RTX 3090 / 2 x RTX 4090 / A800 (40GB) |
2.5 XVERSE
元象 XVERSE 于2021年初在深圳成立,是AI驅(qū)動的3D內(nèi)容生產(chǎn)與消費一站式平臺,開創(chuàng)了高品質(zhì)、零門檻、一站式的全新元宇宙體驗,助力娛樂、營銷、社交、電商等各行業(yè)3D化,邁向每個人自由“定義你的世界”愿景。公司創(chuàng)始人姚星是騰訊公司前副總裁、國家科技部新一代人工智能戰(zhàn)略咨詢委員會成員、騰訊AI Lab和騰訊RoboticsX Lab兩大實驗室創(chuàng)始人。
- XVERSE-13B(發(fā)布時間:2023-08-06;模型文件大?。?7.52GB)https://github.com/xverse-ai/XVERSE-13B
模型結(jié)構(gòu):XVERSE-13B 使用主流 Decoder-only 的標(biāo)準(zhǔn) Transformer 網(wǎng)絡(luò)結(jié)構(gòu),支持 8K 的上下文長度(Context Length),為同尺寸模型中最長,能滿足更長的多輪對話、知識問答與摘要等需求,模型應(yīng)用場景更廣泛。
訓(xùn)練數(shù)據(jù):構(gòu)建了 3.2 萬億 token 的高質(zhì)量、多樣化的數(shù)據(jù)對模型進(jìn)行充分訓(xùn)練,包含中、英、俄、西等 40 多種語言,通過精細(xì)化設(shè)置不同類型數(shù)據(jù)的采樣比例,使得中英兩種語言表現(xiàn)優(yōu)異,也能兼顧其他語言效果。
分詞:基于 BPE(Byte-Pair Encoding)算法,使用上百 GB 語料訓(xùn)練了一個詞表大小為 100,534 的分詞器,能夠同時支持多語言,而無需額外擴(kuò)展詞表。
訓(xùn)練框架:自主研發(fā)多項關(guān)鍵技術(shù),包括高效算子、顯存優(yōu)化、并行調(diào)度策略、數(shù)據(jù)-計算-通信重疊、平臺和框架協(xié)同等,讓訓(xùn)練效率更高,模型穩(wěn)定性強(qiáng),在千卡集群上的峰值算力利用率可達(dá)到 58.5%,位居業(yè)界前列。
下表對比了不同量化等級下模型的顯存占用以及 MMLU 準(zhǔn)確率:
模型 | 精度 | 顯存占用(GB) | MMLU 準(zhǔn)確率 |
---|---|---|---|
XVERSE-13B-Chat | BF16 / FP16 | 28.2 | 60.2 |
XVERSE-13B-Chat | INT8 | 16.8 | 60.3 |
XVERSE-13B-Chat | INT4 | 10.9 | 55.0 |
- XVERSE-65B(發(fā)布時間:2023-11-05;模型文件大?。?32.89GB)https://github.com/xverse-ai/XVERSE-65B
模型結(jié)構(gòu):XVERSE-65B 使用主流 Decoder-only 的標(biāo)準(zhǔn) Transformer 網(wǎng)絡(luò)結(jié)構(gòu),支持 16K 的上下文長度(Context Length),能滿足更長的多輪對話、知識問答與摘要等需求,模型應(yīng)用場景更廣泛。
訓(xùn)練數(shù)據(jù):構(gòu)建了 2.6 萬億 token 的高質(zhì)量、多樣化的數(shù)據(jù)對模型進(jìn)行充分訓(xùn)練,包含中、英、俄、西等 40 多種語言,通過精細(xì)化設(shè)置不同類型數(shù)據(jù)的采樣比例,使得中英兩種語言表現(xiàn)優(yōu)異,也能兼顧其他語言效果。
分詞:基于 BPE(Byte-Pair Encoding)算法,使用上百 GB 語料訓(xùn)練了一個詞表大小為 100,534 的分詞器,能夠同時支持多語言,而無需額外擴(kuò)展詞表。
訓(xùn)練框架:訓(xùn)練中采用 FlashAttention2 加速計算,3D 并行基礎(chǔ)上采用虛擬流水線(virtual pipeline)技術(shù),降低較長流水線和 16k 上下文窗口產(chǎn)生的過高氣泡率,在千卡集群的峰值算力利用率達(dá)到業(yè)界前列。同時通過集群基礎(chǔ)設(shè)施運營、資源調(diào)度、訓(xùn)練框架和調(diào)度平臺協(xié)同等持續(xù)優(yōu)化,打造出高穩(wěn)定、低中斷、強(qiáng)容錯的訓(xùn)練系統(tǒng),將每周有效訓(xùn)練率提升至 98.6%。
下表列出了在 XVERSE-65B 上進(jìn)行推理和微調(diào)所需要的硬件資源:
類型 | 方法 | 內(nèi)存 | GPU | |
---|---|---|---|---|
XVERSE-65B | 訓(xùn)練 | LoRA with ZeRO-3 | 1500GB | 8*A800 80G |
XVERSE-65B | 推理 | BF16/FP16 | 500GB | 2*A800 80G |
2.6 MOSS
https://github.com/OpenLMLab/MOSS
MOSS是復(fù)旦大學(xué)邱錫鵬教授開源的一個大語言模型,支持中英雙語和多種插件的開源對話,moss-moon系列模型具有160億參數(shù),在FP16精度下可在單張A100/A800或兩張3090顯卡運行,在INT4/8精度下可在單張3090顯卡運行。MOSS基座語言模型在約七千億中英文以及代碼單詞上預(yù)訓(xùn)練得到,后續(xù)經(jīng)過對話指令微調(diào)、插件增強(qiáng)學(xué)習(xí)和人類偏好訓(xùn)練具備多輪對話能力及使用多種插件的能力。
下表提供了一個batch size=1時本地部署MOSS進(jìn)行推理所需的顯存大小。量化模型暫時不支持模型并行。
量化等級 | 加載模型 | 完成一輪對話(估計值) | 達(dá)到最大對話長度2048 |
---|---|---|---|
FP16 | 31GB | 42GB | 81GB |
Int8 | 16GB | 24GB | 46GB |
Int4 | 7.8GB | 12GB | 26GB |
2.7 ChatRWKV
- RWKV-4-Raven(更新日期:2023-08-17;模型文件大?。?3.77GB)https://github.com/BlinkDL/RWKV-LM
Receptance Weighted Key Value(RWKV)是pengbo提出的一個新的語言模型架構(gòu),它使用了線性的注意力機(jī)制,把Transformer的高效并行訓(xùn)練與RNN的高效推理相結(jié)合,使得模型在訓(xùn)練期間可以并行,并在推理的時候保持恒定的計算和內(nèi)存復(fù)雜度。RWKV已經(jīng)訓(xùn)練了多個百億參數(shù)的模型,特別是RWKV World模型支持世界所有語言的生成+對話+任務(wù)+代碼,功能十分全面。此外還有很多開發(fā)者基于RWKV的微調(diào)模型。
硬件需求官方未公示。
2.8 GPT4All
https://gpt4all.io/index.html
Nomic AI Team 從 Alpaca 獲得靈感,使用 GPT-3.5-Turbo OpenAI API 收集了大約 800,000 個提示-響應(yīng)對,創(chuàng)建了 430,000 個助手式提示和生成訓(xùn)練對,包括代碼、對話和敘述。80 萬對大約是羊駝的 16 倍。該模型最好的部分是它可以在 CPU 上運行,不需要 GPU。與 Alpaca 一樣,它也是一個開源軟件,可以幫助個人進(jìn)行進(jìn)一步的研究,而無需花費在商業(yè)解決方案上。
模型文件大?。?.04 GB~8.37GB
CPU用量:1GB~16GB
3.大模型接口整理
3.1 百度千帆大模型
https://cloud.baidu.com/doc/WENXINWORKSHOP/s/hlqnms5rn
token計算器 https://console.bce.baidu.com/tools/#/tokenizer
文心一言(ernie-bot)定價, ERNIE-Bot-turbo-0922是0.008元/千tokens, ERNIE-Bot是0.012元/千tokens, ERNIE-Bot 4.0 輸入輸出都是是0.12元/千tokens。
3.2 阿里模型服務(wù)靈積
https://dashscope.aliyun.com/
名稱 | 計費單元 | 計費單價 | 免費額度 |
---|---|---|---|
通義千問 | 千tokens | qwen-turbo: 0.008元/千tokens | |
qwen-plus: 0.02元/千tokens | |||
qwen-max, qwen-max-longcontext: 限時免費開放 | qwen-turbo: 開通即獲贈200萬 tokens 限時免費額度 | ||
qwen-plus: 開通即獲贈100萬 tokens 限時免費額度 | |||
qwen-max, qwen-max-longcontext: 限時免費開放 |
3.3 騰訊混元大模型
https://cloud.tencent.com/document/product/1729/97731
- 免費額度
產(chǎn)品名 | 免費額度 |
---|---|
騰訊混元大模型標(biāo)準(zhǔn)版 | 開通騰訊混元大模型服務(wù)即獲贈累計10萬 token 的免費調(diào)用額度,有效期12個月;以資源包的形式發(fā)放到您的騰訊云賬號中,優(yōu)先扣除。 |
騰訊混元大模型高級版 | |
騰訊混元-Embedding | 開通騰訊混元大模型服務(wù)即獲贈累計100萬 token 的免費調(diào)用額度,有效期12個月;以資源包的形式發(fā)放到您的騰訊云賬號中,優(yōu)先扣除。 |
- 產(chǎn)品價格(在免費額度用完后,按如下價格進(jìn)行計費):
產(chǎn)品名 | 單位 | 刊例價 |
---|---|---|
騰訊混元大模型標(biāo)準(zhǔn)版 | 每 1000 token | 0.01元 |
騰訊混元大模型高級版 | 每 1000 token | 0.10元 |
騰訊混元-Embedding | 每 1000 token | 0.0007元 |
說明:token 為服務(wù)輸入+服務(wù)輸出的總額,1token 約等于1.8個中文漢字或3個英文字母;您可以前往 控制臺 使用 token 計算器了解一段文本對應(yīng)的 token 總數(shù);進(jìn)行 API 調(diào)試,以及使用 API 3.0 Explorer 在線工具都會消耗對應(yīng)的 token。
3.4 科大訊飛星火大模型
https://xinghuo.xfyun.cn/sparkapi
- V1.5支持語言理解、知識問答、代碼編寫、邏輯推理、數(shù)學(xué)解題等多元能力,服務(wù)已內(nèi)嵌聯(lián)網(wǎng)搜索功能
- V3.0能力全面升級,在數(shù)學(xué)、代碼、醫(yī)療、教育等場景進(jìn)行了專項優(yōu)化,讓大模型更懂你所需
|
個人免費包 | 企業(yè)免費包 | 套餐一 | 套餐二 | 套餐三 | 套餐四 |
---|---|---|---|---|---|
服務(wù)量 | 200萬tokens | 500萬tokens | 0.5億tokens | 1億tokens | 10億tokens |
QPS | 2 | 2 | 5 | 10 | 20 |
有效期 | 一年 | 一年 | 一年 | 一年 | 一年 |
V1.5套餐單價 | 免費 | 免費 | 0.15元/萬tokens | 0.14元/萬tokens | 0.13元/萬tokens |
V3.0套餐單價 | 免費 | 免費 | 0.3元/萬tokens | 0.28元/萬tokens | 0.26元/萬tokens |
3.5 清華智譜清言
https://open.bigmodel.cn/pricing
https://open.bigmodel.cn/dev/api#product-billing
模型 | 說明 | 上下文長度 | 單價 |
---|---|---|---|
GLM-4 | 提供了更強(qiáng)大的問答和文本生成能力。適合于復(fù)雜的對話交互和深度內(nèi)容創(chuàng)作設(shè)計的場景。 | 128K | 0.1元 / 千tokens |
GLM-3-Turbo | 適用于對知識量、推理能力、創(chuàng)造力要求較高的場景,比如廣告文案、小說寫作、知識類寫作、代碼生成等。 | 128K | 0.005元 / 千tokens |
3.6 昆侖萬維天工AI
https://model-platform.tiangong.cn/pricing文章來源:http://www.zghlxwxcb.cn/news/detail-822213.html
模型/api | 說明 | 單價 |
---|---|---|
kyChat-MegaVerse | 適用于對創(chuàng)新能力、學(xué)識深度、邏輯能力要求較高的超長文本的場景,包括企業(yè)辦公輔助、文案生成、寫小說、文本補(bǔ)全、代碼輔助等。 | 0.010元/千tokens |
0.005元/千tokens 新用戶充值專享價 | ||
AGI Sky-Saas-Search API | 基于"天工"大語言模型出色的推理能力,"AGI Sky-Saas-Search API"不僅具備一般搜索引擎網(wǎng)頁抓取、排序的能力,同時能針對海量的網(wǎng)頁信息針對性的提取和生成關(guān)鍵內(nèi)容,提高用戶獲取信息的效率,并一定程度上解決了 大語言模型所面臨的幻覺問題,根治大語言模型虛假生成、胡言亂語的問題。 | 0.18元/次 |
AGI Sky-Saas-Writing API | "AGI Sky-Saas-Writing API"基于天工大語言模型的文本生成能力,幾句對話即可生成所需寫作內(nèi)容。邊聊邊寫,不論是初稿還是修改,都變得快速而自然,體驗創(chuàng)意的自由,探索寫作的新境界。集 AI 寫作、改寫、擴(kuò)寫、縮寫于一體的 AI 文本編輯器,提高寫作效率,增強(qiáng)表達(dá)力,打造專業(yè)且富有創(chuàng)造力的內(nèi)容。 | 歡迎咨詢 |
3.7 OpenAIGPT
https://openai.com/pricing
使用OpenAI的API需要梯子。文章來源地址http://www.zghlxwxcb.cn/news/detail-822213.html
Model | Input | Output |
---|---|---|
gpt-4-1106-preview | $0.01 / 1K tokens(¥0.07 / 500個漢字) | $0.03 / 1K tokens(¥0.21 / 500個漢字) |
gpt-4-1106-vision-preview | $0.01 / 1K tokens(¥0.07 / 500個漢字) | $0.03 / 1K tokens(¥0.21 / 500個漢字) |
gpt-4 | $0.03 / 1K tokens(¥0.21 / 500個漢字) | $0.06 / 1K tokens(¥0.42 / 500個漢字) |
gpt-4-32k | $0.06 / 1K tokens(¥0.42 / 500個漢字) | $0.12 / 1K tokens(¥0.84 / 500個漢字) |
gpt-3.5-turbo-1106 | $0.0010 / 1K tokens(¥0.007 / 500個漢字) | $0.0020 / 1K tokens(¥0.014 / 500個漢字) |
gpt-3.5-turbo-instruct | $0.0015 / 1K tokens(¥0.0105 / 500個漢字) | $0.0020 / 1K tokens(¥0.014 / 500個漢字) |
到了這里,關(guān)于AI大模型【基礎(chǔ) 01】智能AI開源模型與大模型接口整理(8個開源模型+7個大模型接口)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!