国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

AI大模型【基礎(chǔ) 01】智能AI開源模型與大模型接口整理(8個開源模型+7個大模型接口)

這篇具有很好參考價值的文章主要介紹了AI大模型【基礎(chǔ) 01】智能AI開源模型與大模型接口整理(8個開源模型+7個大模型接口)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。


數(shù)據(jù)主要來源于 【數(shù)據(jù)學(xué)習(xí)】的整理和匯總。

1.說明

1.1 開源模型

  • 免費、本地部署安全性高
  • 部分開源模型版本相對落后、硬件資源需求高、性能一般
  • 技術(shù)門檻高、需要進(jìn)行一定量的開發(fā)工作
  • 更新維護(hù)成本較高

1.2 大模型接口

  • 付費(按需收費)、非本地部署可能存在數(shù)據(jù)安全問題
  • 模型較新、無需硬件資源、性能好
  • 開發(fā)工作量相對較少
  • 實時更新無需維護(hù)

2.開源模型整理

2.1 ChatGLM

  • ChatGLM-6B(發(fā)布時間:2023-03-14;模型文件大?。?3.5GB)https://github.com/THUDM/ChatGLM-6B

ChatGLM 是由清華大學(xué) KEG 實驗室和智譜 AI 基于千億基座模型 GLM-130B (General Language Model 通用語言模型)開發(fā)的對話語言模型。ChatGLM 在 GLM-130B 的基礎(chǔ)上持續(xù)進(jìn)行文本和代碼預(yù)訓(xùn)練并通過有監(jiān)督微調(diào)等技術(shù)實現(xiàn)人類意圖對齊,具備文案寫作、信息抽取、角色扮演、問答、對話等能力。

量化等級 最低GPU顯存
FP16(無量化) 13GB
INT8 10GB
INT4 6GB
  • ChatGLM2-6B(發(fā)布時間:2023-06-25;模型文件大?。?2.5GB)https://github.com/THUDM/ChatGLM2-6B

基座模型使用了GLM模型的混合目標(biāo)函數(shù),在1.4萬億中英文tokens數(shù)據(jù)集上訓(xùn)練,并做了模型對齊,第二代在各項任務(wù)中的提升幅度如下:

評測任務(wù) 任務(wù)類型 ChatGLM-6B得分 ChatGLM2-6B得分 提升幅度
MMLU 英文語言理解 40.63 47.86 ↑ 23%
CEval 中文大語言模型評估 38.9 51.7 ↑ 33%
GSM8K 數(shù)學(xué)(英文版) 4.82 32.37 ↑ 571%
BBH 大語言模型的BIG-Bench Hard任務(wù) 18.73 33.68 ↑ 60%

更長的上下文:在第一代ChatGLM-6B上,模型的最高上下文長度是2K。而第二代的ChatGLM2-6B的基座模型使用了FlashAttention技術(shù),升級到32K。而據(jù)此微調(diào)的對話模型ChatGLM2-6B則可以在8K長度上下文條件下自由流暢進(jìn)行對話。因此,支持更多輪次的對話,并且官方表示將在后續(xù)繼續(xù)優(yōu)化上下文長度限制。
更高效的推理:ChatGLM2-6B使用了Multi-Query Attention技術(shù),可以在更低地顯存資源下以更快的速度進(jìn)行推理,推理速度相比第一代提升42%!同時,在INT4量化模型中,6G顯存的對話長度由1K提升到了8K!

量化等級 編碼 2048 長度的最小顯存 生成 8192 長度的最小顯存
FP16 / BF16 13.1 GB 12.8 GB
INT8 8.2 GB 8.1 GB
INT4 5.5 GB 5.1 GB

2.2 Baichuan

Baichuan Intelligent Technology是搜狗創(chuàng)始人王小川創(chuàng)辦的一家人工智能企業(yè)。

  • Baichuan-7B(發(fā)布時間:2023-09-06;模型文件大?。?4GB)https://github.com/baichuan-inc/Baichuan-7B

是由百川智能開發(fā)的一個開源可商用的大規(guī)模預(yù)訓(xùn)練語言模型。基于 Transformer 結(jié)構(gòu),在大約 1.2 萬億 tokens 上訓(xùn)練的 70 億參數(shù)模型,支持中英雙語,上下文窗口長度為 4096。在標(biāo)準(zhǔn)的中文和英文 benchmark(C-Eval/MMLU)上均取得同尺寸最好的效果。

  • Baichuan-13B-Chat(發(fā)布時間:2023-07-08;模型文件大?。?6.6GB)https://github.com/baichuan-inc/Baichuan-13B

Baichuan-13B 是由百川智能繼 Baichuan-7B 之后開發(fā)的包含 130 億參數(shù)的開源可商用的大規(guī)模語言模型,在權(quán)威的中文和英文 benchmark 上均取得同尺寸最好的效果。本次發(fā)布包含有預(yù)訓(xùn)練 (Baichuan-13B-Base) 和對齊 (Baichuan-13B-Chat) 兩個版本。Baichuan-13B 有如下幾個特點:

  1. 更大尺寸、更多數(shù)據(jù):Baichuan-13B 在 Baichuan-7B 的基礎(chǔ)上進(jìn)一步擴(kuò)大參數(shù)量到 130 億,并且在高質(zhì)量的語料上訓(xùn)練了 1.4 萬億 tokens,超過 LLaMA-13B 40%,是當(dāng)前開源 13B 尺寸下訓(xùn)練數(shù)據(jù)量最多的模型。支持中英雙語,使用 ALiBi 位置編碼,上下文窗口長度為 4096。
  2. 同時開源預(yù)訓(xùn)練和對齊模型:預(yù)訓(xùn)練模型是適用開發(fā)者的『 基座 』,而廣大普通用戶對有對話功能的對齊模型具有更強(qiáng)的需求。因此本次開源我們同時發(fā)布了對齊模型(Baichuan-13B-Chat),具有很強(qiáng)的對話能力,開箱即用,幾行代碼即可簡單的部署。
  3. 更高效的推理:為了支持更廣大用戶的使用,我們本次同時開源了 int8 和 int4 的量化版本,相對非量化版本在幾乎沒有效果損失的情況下大大降低了部署的機(jī)器資源門檻,可以部署在如 Nvidia 3090 這樣的消費級顯卡上。
  4. 開源免費可商用:Baichuan-13B 不僅對學(xué)術(shù)研究完全開放,開發(fā)者也僅需郵件申請并獲得官方商用許可后,即可以免費商用。
量化等級 最低GPU顯存
bf16 / fp16 26.0GB
int8 15.8GB
int4 9.7GB

注意:CPU部署需要60GB內(nèi)存。

  • Baichuan2(發(fā)布時間:2023-12-29;模型文件大?。?B-15GB 13B-27.8GB)https://github.com/baichuan-inc/Baichuan2

Baichuan 2 是百川智能推出的新一代開源大語言模型,采用 2.6 萬億 Tokens 的高質(zhì)量語料訓(xùn)練。在多個權(quán)威的中文、英文和多語言的通用、領(lǐng)域 benchmark 上取得同尺寸最佳的效果。包含有 7B、13BBaseChat 版本,并提供了 Chat 版本的 4bits 量化
量化前后顯存占用對比 (GPU Mem in GB)

量化等級 Baichuan2-7B Baichuan2-13B
bf16 / fp16 15.3 27.5
8bits 8.0 16.1
4bits 5.1 8.6

2.3 Qwen

https://github.com/QwenLM/Qwen
阿里通義千問發(fā)布了的Qwen-7B(發(fā)布時間:2023-08-03;模型文件大小:15.4GB)和Qwen-14B(發(fā)布時間:2023-09-24;模型文件大?。?8.32GB),是互聯(lián)網(wǎng)廠商中目前最受歡迎的開源大模型,它的優(yōu)勢是在于阿里的強(qiáng)大生態(tài)體系以及應(yīng)用。Qwen系列模型相比同規(guī)模模型均實現(xiàn)了效果的顯著提升。評測的數(shù)據(jù)集包括MMLU、C-Eval、 GSM8K、 MATH、HumanEval、MBPP、BBH等數(shù)據(jù)集,考察的能力包括自然語言理解、知識、數(shù)學(xué)計算和推理、代碼生成、邏輯推理等。Qwen-72B(發(fā)布時間:2023-11-30;模型文件大?。?40GB)在所有任務(wù)上均超越了LLaMA2-70B的性能,同時在10項任務(wù)中的7項任務(wù)中超越GPT-3.5。

模型 開源日期 最大上下文長度 System Prompt強(qiáng)化 預(yù)訓(xùn)練token數(shù) 微調(diào)(Q-Lora)最小GPU用量 生成2048個token的最小顯存占用 工具調(diào)用
Qwen-1.8B 23.11.30 32K ? 2.2T 5.8GB 2.9GB ?
Qwen-7B 23.08.03 32K ? 2.4T 11.5GB 8.2GB ?
Qwen-14B 23.09.25 8K ? 3.0T 18.7GB 13.0GB ?
Qwen-72B 23.11.30 32K ? 3.0T 61.4GB 48.9GB ?

2.4 Yi

https://github.com/01-ai/Yi
零一萬物(01.AI)https://www.lingyiwanwu.com 是由李開復(fù)在2023年3月份創(chuàng)辦的一家大模型創(chuàng)業(yè)企業(yè),并在2023年6月份正式開始運營。在2023年11月6日,零一萬物開源了4個大語言模型,包括Yi-6B(模型文件大?。?2.12GB)、Yi-6B-200K、Yi-34B(模型文件大?。?2GB)、Yi-34B-200k。模型在MMLU的評分上登頂,最高支持200K超長上下文輸入,獲得了社區(qū)的廣泛關(guān)注。

Model Minimum VRAM Recommended GPU Example
Yi-6B-Chat 15 GB RTX 3090 / RTX 4090 / A10 / A30
Yi-6B-Chat-4bits 4 GB RTX 3060 / RTX 4060
Yi-6B-Chat-8bits 8 GB RTX 3070 / RTX 4060
Yi-34B-Chat 72 GB 4 x RTX 4090 / A800 (80GB)
Yi-34B-Chat-4bits 20 GB RTX 3090 / RTX 4090 / A10 / A30 / A100 (40GB)
Yi-34B-Chat-8bits 38 GB 2 x RTX 3090 / 2 x RTX 4090 / A800 (40GB)

2.5 XVERSE

元象 XVERSE 于2021年初在深圳成立,是AI驅(qū)動的3D內(nèi)容生產(chǎn)與消費一站式平臺,開創(chuàng)了高品質(zhì)、零門檻、一站式的全新元宇宙體驗,助力娛樂、營銷、社交、電商等各行業(yè)3D化,邁向每個人自由“定義你的世界”愿景。公司創(chuàng)始人姚星是騰訊公司前副總裁、國家科技部新一代人工智能戰(zhàn)略咨詢委員會成員、騰訊AI Lab和騰訊RoboticsX Lab兩大實驗室創(chuàng)始人。

  • XVERSE-13B(發(fā)布時間:2023-08-06;模型文件大?。?7.52GB)https://github.com/xverse-ai/XVERSE-13B

模型結(jié)構(gòu):XVERSE-13B 使用主流 Decoder-only 的標(biāo)準(zhǔn) Transformer 網(wǎng)絡(luò)結(jié)構(gòu),支持 8K 的上下文長度(Context Length),為同尺寸模型中最長,能滿足更長的多輪對話、知識問答與摘要等需求,模型應(yīng)用場景更廣泛。
訓(xùn)練數(shù)據(jù):構(gòu)建了 3.2 萬億 token 的高質(zhì)量、多樣化的數(shù)據(jù)對模型進(jìn)行充分訓(xùn)練,包含中、英、俄、西等 40 多種語言,通過精細(xì)化設(shè)置不同類型數(shù)據(jù)的采樣比例,使得中英兩種語言表現(xiàn)優(yōu)異,也能兼顧其他語言效果。
分詞:基于 BPE(Byte-Pair Encoding)算法,使用上百 GB 語料訓(xùn)練了一個詞表大小為 100,534 的分詞器,能夠同時支持多語言,而無需額外擴(kuò)展詞表。
訓(xùn)練框架:自主研發(fā)多項關(guān)鍵技術(shù),包括高效算子、顯存優(yōu)化、并行調(diào)度策略、數(shù)據(jù)-計算-通信重疊、平臺和框架協(xié)同等,讓訓(xùn)練效率更高,模型穩(wěn)定性強(qiáng),在千卡集群上的峰值算力利用率可達(dá)到 58.5%,位居業(yè)界前列。
下表對比了不同量化等級下模型的顯存占用以及 MMLU 準(zhǔn)確率:

模型 精度 顯存占用(GB) MMLU 準(zhǔn)確率
XVERSE-13B-Chat BF16 / FP16 28.2 60.2
XVERSE-13B-Chat INT8 16.8 60.3
XVERSE-13B-Chat INT4 10.9 55.0
  • XVERSE-65B(發(fā)布時間:2023-11-05;模型文件大?。?32.89GB)https://github.com/xverse-ai/XVERSE-65B

模型結(jié)構(gòu):XVERSE-65B 使用主流 Decoder-only 的標(biāo)準(zhǔn) Transformer 網(wǎng)絡(luò)結(jié)構(gòu),支持 16K 的上下文長度(Context Length),能滿足更長的多輪對話、知識問答與摘要等需求,模型應(yīng)用場景更廣泛。
訓(xùn)練數(shù)據(jù):構(gòu)建了 2.6 萬億 token 的高質(zhì)量、多樣化的數(shù)據(jù)對模型進(jìn)行充分訓(xùn)練,包含中、英、俄、西等 40 多種語言,通過精細(xì)化設(shè)置不同類型數(shù)據(jù)的采樣比例,使得中英兩種語言表現(xiàn)優(yōu)異,也能兼顧其他語言效果。
分詞:基于 BPE(Byte-Pair Encoding)算法,使用上百 GB 語料訓(xùn)練了一個詞表大小為 100,534 的分詞器,能夠同時支持多語言,而無需額外擴(kuò)展詞表。
訓(xùn)練框架:訓(xùn)練中采用 FlashAttention2 加速計算,3D 并行基礎(chǔ)上采用虛擬流水線(virtual pipeline)技術(shù),降低較長流水線和 16k 上下文窗口產(chǎn)生的過高氣泡率,在千卡集群的峰值算力利用率達(dá)到業(yè)界前列。同時通過集群基礎(chǔ)設(shè)施運營、資源調(diào)度、訓(xùn)練框架和調(diào)度平臺協(xié)同等持續(xù)優(yōu)化,打造出高穩(wěn)定、低中斷、強(qiáng)容錯的訓(xùn)練系統(tǒng),將每周有效訓(xùn)練率提升至 98.6%。
下表列出了在 XVERSE-65B 上進(jìn)行推理和微調(diào)所需要的硬件資源:

類型 方法 內(nèi)存 GPU
XVERSE-65B 訓(xùn)練 LoRA with ZeRO-3 1500GB 8*A800 80G
XVERSE-65B 推理 BF16/FP16 500GB 2*A800 80G

2.6 MOSS

https://github.com/OpenLMLab/MOSS
MOSS是復(fù)旦大學(xué)邱錫鵬教授開源的一個大語言模型,支持中英雙語和多種插件的開源對話,moss-moon系列模型具有160億參數(shù),在FP16精度下可在單張A100/A800或兩張3090顯卡運行,在INT4/8精度下可在單張3090顯卡運行。MOSS基座語言模型在約七千億中英文以及代碼單詞上預(yù)訓(xùn)練得到,后續(xù)經(jīng)過對話指令微調(diào)、插件增強(qiáng)學(xué)習(xí)和人類偏好訓(xùn)練具備多輪對話能力及使用多種插件的能力。
下表提供了一個batch size=1時本地部署MOSS進(jìn)行推理所需的顯存大小。量化模型暫時不支持模型并行。

量化等級 加載模型 完成一輪對話(估計值) 達(dá)到最大對話長度2048
FP16 31GB 42GB 81GB
Int8 16GB 24GB 46GB
Int4 7.8GB 12GB 26GB

2.7 ChatRWKV

  • RWKV-4-Raven(更新日期:2023-08-17;模型文件大?。?3.77GB)https://github.com/BlinkDL/RWKV-LM

Receptance Weighted Key Value(RWKV)是pengbo提出的一個新的語言模型架構(gòu),它使用了線性的注意力機(jī)制,把Transformer的高效并行訓(xùn)練與RNN的高效推理相結(jié)合,使得模型在訓(xùn)練期間可以并行,并在推理的時候保持恒定的計算和內(nèi)存復(fù)雜度。RWKV已經(jīng)訓(xùn)練了多個百億參數(shù)的模型,特別是RWKV World模型支持世界所有語言的生成+對話+任務(wù)+代碼,功能十分全面。此外還有很多開發(fā)者基于RWKV的微調(diào)模型。
硬件需求官方未公示。

2.8 GPT4All

https://gpt4all.io/index.html
Nomic AI Team 從 Alpaca 獲得靈感,使用 GPT-3.5-Turbo OpenAI API 收集了大約 800,000 個提示-響應(yīng)對,創(chuàng)建了 430,000 個助手式提示和生成訓(xùn)練對,包括代碼、對話和敘述。80 萬對大約是羊駝的 16 倍。該模型最好的部分是它可以在 CPU 上運行,不需要 GPU。與 Alpaca 一樣,它也是一個開源軟件,可以幫助個人進(jìn)行進(jìn)一步的研究,而無需花費在商業(yè)解決方案上。
模型文件大?。?.04 GB~8.37GB
CPU用量:1GB~16GB

3.大模型接口整理

3.1 百度千帆大模型

https://cloud.baidu.com/doc/WENXINWORKSHOP/s/hlqnms5rn
token計算器 https://console.bce.baidu.com/tools/#/tokenizer
文心一言(ernie-bot)定價, ERNIE-Bot-turbo-0922是0.008元/千tokens, ERNIE-Bot是0.012元/千tokens, ERNIE-Bot 4.0 輸入輸出都是是0.12元/千tokens。

3.2 阿里模型服務(wù)靈積

https://dashscope.aliyun.com/

名稱 計費單元 計費單價 免費額度
通義千問 千tokens qwen-turbo: 0.008元/千tokens
qwen-plus: 0.02元/千tokens
qwen-max, qwen-max-longcontext: 限時免費開放 qwen-turbo: 開通即獲贈200萬 tokens 限時免費額度
qwen-plus: 開通即獲贈100萬 tokens 限時免費額度
qwen-max, qwen-max-longcontext: 限時免費開放

3.3 騰訊混元大模型

https://cloud.tencent.com/document/product/1729/97731

  • 免費額度
產(chǎn)品名 免費額度
騰訊混元大模型標(biāo)準(zhǔn)版 開通騰訊混元大模型服務(wù)即獲贈累計10萬 token 的免費調(diào)用額度,有效期12個月;以資源包的形式發(fā)放到您的騰訊云賬號中,優(yōu)先扣除。
騰訊混元大模型高級版
騰訊混元-Embedding 開通騰訊混元大模型服務(wù)即獲贈累計100萬 token 的免費調(diào)用額度,有效期12個月;以資源包的形式發(fā)放到您的騰訊云賬號中,優(yōu)先扣除。
  • 產(chǎn)品價格(在免費額度用完后,按如下價格進(jìn)行計費):
產(chǎn)品名 單位 刊例價
騰訊混元大模型標(biāo)準(zhǔn)版 每 1000 token 0.01元
騰訊混元大模型高級版 每 1000 token 0.10元
騰訊混元-Embedding 每 1000 token 0.0007元

說明:token 為服務(wù)輸入+服務(wù)輸出的總額,1token 約等于1.8個中文漢字或3個英文字母;您可以前往 控制臺 使用 token 計算器了解一段文本對應(yīng)的 token 總數(shù);進(jìn)行 API 調(diào)試,以及使用 API 3.0 Explorer 在線工具都會消耗對應(yīng)的 token。

3.4 科大訊飛星火大模型

https://xinghuo.xfyun.cn/sparkapi

  • V1.5支持語言理解、知識問答、代碼編寫、邏輯推理、數(shù)學(xué)解題等多元能力,服務(wù)已內(nèi)嵌聯(lián)網(wǎng)搜索功能
  • V3.0能力全面升級,在數(shù)學(xué)、代碼、醫(yī)療、教育等場景進(jìn)行了專項優(yōu)化,讓大模型更懂你所需
    |
個人免費包 企業(yè)免費包 套餐一 套餐二 套餐三 套餐四
服務(wù)量 200萬tokens 500萬tokens 0.5億tokens 1億tokens 10億tokens
QPS 2 2 5 10 20
有效期 一年 一年 一年 一年 一年
V1.5套餐單價 免費 免費 0.15元/萬tokens 0.14元/萬tokens 0.13元/萬tokens
V3.0套餐單價 免費 免費 0.3元/萬tokens 0.28元/萬tokens 0.26元/萬tokens

3.5 清華智譜清言

https://open.bigmodel.cn/pricing
https://open.bigmodel.cn/dev/api#product-billing

模型 說明 上下文長度 單價
GLM-4 提供了更強(qiáng)大的問答和文本生成能力。適合于復(fù)雜的對話交互和深度內(nèi)容創(chuàng)作設(shè)計的場景。 128K 0.1元 / 千tokens
GLM-3-Turbo 適用于對知識量、推理能力、創(chuàng)造力要求較高的場景,比如廣告文案、小說寫作、知識類寫作、代碼生成等。 128K 0.005元 / 千tokens

3.6 昆侖萬維天工AI

https://model-platform.tiangong.cn/pricing

模型/api 說明 單價
kyChat-MegaVerse 適用于對創(chuàng)新能力、學(xué)識深度、邏輯能力要求較高的超長文本的場景,包括企業(yè)辦公輔助、文案生成、寫小說、文本補(bǔ)全、代碼輔助等。 0.010元/千tokens
0.005元/千tokens 新用戶充值專享價
AGI Sky-Saas-Search API 基于"天工"大語言模型出色的推理能力,"AGI Sky-Saas-Search API"不僅具備一般搜索引擎網(wǎng)頁抓取、排序的能力,同時能針對海量的網(wǎng)頁信息針對性的提取和生成關(guān)鍵內(nèi)容,提高用戶獲取信息的效率,并一定程度上解決了 大語言模型所面臨的幻覺問題,根治大語言模型虛假生成、胡言亂語的問題。 0.18元/次
AGI Sky-Saas-Writing API "AGI Sky-Saas-Writing API"基于天工大語言模型的文本生成能力,幾句對話即可生成所需寫作內(nèi)容。邊聊邊寫,不論是初稿還是修改,都變得快速而自然,體驗創(chuàng)意的自由,探索寫作的新境界。集 AI 寫作、改寫、擴(kuò)寫、縮寫于一體的 AI 文本編輯器,提高寫作效率,增強(qiáng)表達(dá)力,打造專業(yè)且富有創(chuàng)造力的內(nèi)容。 歡迎咨詢

3.7 OpenAIGPT

https://openai.com/pricing
使用OpenAI的API需要梯子。文章來源地址http://www.zghlxwxcb.cn/news/detail-822213.html

Model Input Output
gpt-4-1106-preview $0.01 / 1K tokens(¥0.07 / 500個漢字) $0.03 / 1K tokens(¥0.21 / 500個漢字)
gpt-4-1106-vision-preview $0.01 / 1K tokens(¥0.07 / 500個漢字) $0.03 / 1K tokens(¥0.21 / 500個漢字)
gpt-4 $0.03 / 1K tokens(¥0.21 / 500個漢字) $0.06 / 1K tokens(¥0.42 / 500個漢字)
gpt-4-32k $0.06 / 1K tokens(¥0.42 / 500個漢字) $0.12 / 1K tokens(¥0.84 / 500個漢字)
gpt-3.5-turbo-1106 $0.0010 / 1K tokens(¥0.007 / 500個漢字) $0.0020 / 1K tokens(¥0.014 / 500個漢字)
gpt-3.5-turbo-instruct $0.0015 / 1K tokens(¥0.0105 / 500個漢字) $0.0020 / 1K tokens(¥0.014 / 500個漢字)

到了這里,關(guān)于AI大模型【基礎(chǔ) 01】智能AI開源模型與大模型接口整理(8個開源模型+7個大模型接口)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 【AI人工智能】LLM 開源中文大語言模型集合

    【AI人工智能】LLM 開源中文大語言模型集合

    整理開源的中文大語言模型,以規(guī)模較小、可私有化部署、訓(xùn)練成本較低的模型為主,包括底座模型,垂直領(lǐng)域微調(diào)及應(yīng)用,數(shù)據(jù)集與教程等。 目錄 1.?Model 2.?Application 3.?Dataset 4.?Evaluation 5.?Tutorial 6.?R

    2024年02月09日
    瀏覽(37)
  • 精心整理了優(yōu)秀的GitHub開源項目,包含前端、后端、AI人工智能、游戲、黑客工具、網(wǎng)絡(luò)工具、AI醫(yī)療等等,空閑的時候方便看看提高自己的視野

    精心整理了優(yōu)秀的GitHub開源項目,包含前端、后端、AI人工智能、游戲、黑客工具、網(wǎng)絡(luò)工具、AI醫(yī)療等等,空閑的時候方便看看提高自己的視野

    精心整理了優(yōu)秀的GitHub開源項目,包含前端、后端、AI人工智能、游戲、黑客工具、網(wǎng)絡(luò)工具、AI醫(yī)療等等,空閑的時候方便看看提高自己的視野。 剛開源就變成新星的 igl,不僅獲得了 2k+ star,也能提高你開發(fā)游戲的效率,擺平一切和圖形有關(guān)的問題。如果這個沒有那么驚艷

    2024年02月10日
    瀏覽(102)
  • 16K個大語言模型的進(jìn)化樹;81個在線可玩的AI游戲;AI提示工程的終極指南;音頻Transformers課程 | ShowMeAI日報

    16K個大語言模型的進(jìn)化樹;81個在線可玩的AI游戲;AI提示工程的終極指南;音頻Transformers課程 | ShowMeAI日報

    ?? 日報周刊合集 | ?? 生產(chǎn)力工具與行業(yè)應(yīng)用大全 | ?? 點贊關(guān)注評論拜托啦! 這張進(jìn)化圖來自于論文 「 On the Origin of LLMs: An Evolutionary Tree and Graph for 15,821 Large Language Models 」,構(gòu)建了一個包含15821個大型語言模型的進(jìn)化樹和關(guān)系圖,以便探索不同的大模型之間的關(guān)系 ? 論文

    2024年02月16日
    瀏覽(25)
  • 人工智能_CPU安裝運行ChatGLM大模型_安裝清華開源人工智能AI大模型ChatGlm-6B_004---人工智能工作筆記0099

    人工智能_CPU安裝運行ChatGLM大模型_安裝清華開源人工智能AI大模型ChatGlm-6B_004---人工智能工作筆記0099

    上一節(jié)003節(jié)我們安裝到最后,本來大模型都可以回答問題了,結(jié)果, 5分鐘后給出提示,需要GPU,我去..繼續(xù)看官網(wǎng),如何配置CPU運行 ?沒辦法繼續(xù)看: 這里是官網(wǎng)可以看到? 需要gcc的版本是11.3.0,這里我們先沒有去安裝,直接試試再說 yum install epel-release yum install gcc-11.3.0 安裝的話執(zhí)行這

    2024年02月21日
    瀏覽(30)
  • Spring AI與大模型Ollama如何集成整合?

    Python 是進(jìn)入人工智能領(lǐng)域(認(rèn)為是機(jī)器學(xué)習(xí)或生成人工智能AIGC)的主要武器,Java 和 Spring 仍引領(lǐng)著大多數(shù)開發(fā)社區(qū), Java 開發(fā)人員如何與 LLM大模型 一起工作?這就是 Spring AI 彌補(bǔ)差距的地方。 Spring AI在 Spring 應(yīng)用程序和可以在本地運行的 LLM 之間創(chuàng)建集成,這為所有 Java 開

    2024年04月25日
    瀏覽(25)
  • 第3章 開源大模型框架概覽3.1 TensorFlow與Keras3.1.3 TensorFlow與大模型

    TensorFlow是Google開發(fā)的一種開源的深度學(xué)習(xí)框架,它可以用于構(gòu)建和訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型。Keras是一個高級神經(jīng)網(wǎng)絡(luò)API,運行于TensorFlow之上,使得構(gòu)建神經(jīng)網(wǎng)絡(luò)變得簡單而高效。在本章中,我們將深入探討TensorFlow與Keras的關(guān)系以及如何使用它們來構(gòu)建大型模型。 TensorFlow是一個用

    2024年03月11日
    瀏覽(20)
  • 人工智能_普通服務(wù)器CPU_安裝清華開源人工智能AI大模型ChatGlm-6B_001---人工智能工作筆記0096

    人工智能_普通服務(wù)器CPU_安裝清華開源人工智能AI大模型ChatGlm-6B_001---人工智能工作筆記0096

    使用centos安裝,注意安裝之前,保證系統(tǒng)可以聯(lián)網(wǎng),然后執(zhí)行yum update 先去更新一下系統(tǒng),可以省掉很多麻煩 20240219_150031 這里我們使用centos系統(tǒng)吧,使用習(xí)慣了. ChatGlm首先需要一臺個人計算機(jī),或者服務(wù)器, 要的算力,訓(xùn)練最多,微調(diào)次之,推理需要算力最少 其實很多都支持CPU,但為什么

    2024年02月20日
    瀏覽(24)
  • AI大模型應(yīng)用入門實戰(zhàn)與進(jìn)階:圖像識別與大模型:ViT解析

    隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,大模型在圖像識別領(lǐng)域取得了顯著的成功。ViT(Vision Transformer)是Google Brain團(tuán)隊2020年推出的一種新穎的圖像識別方法,它將傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)(CNN)替換為Transformer架構(gòu),實現(xiàn)了在圖像識別任務(wù)中的顯著性能提升。 本文將從以下幾個方面進(jìn)行深入

    2024年02月20日
    瀏覽(22)
  • 大模型開發(fā)(一):GPT、ChatGPT與大模型,一次搞懂這些AI概念

    大模型開發(fā)(一):GPT、ChatGPT與大模型,一次搞懂這些AI概念

    全文共5000余字,預(yù)計閱讀時間約10~20分鐘 | 滿滿干貨,建議收藏! 本文目標(biāo):詳細(xì)解釋大型語言模型(LLM)和OpenAI的GPT系列的基本概念。 大型語言模型,也稱大語言模型、大模型(Large Language Model,LLM;Large Language Models,LLMs) 。 大語言模型是一種深度學(xué)習(xí)模型,特別是屬于

    2024年02月14日
    瀏覽(18)
  • 【最新】生成式人工智能(AIGC)與大語言模型(LLM)學(xué)習(xí)資源匯總

    a) Andrej Karpathy 的 - 大型語言模型簡介:https://www.youtube.com/watch?v=zjkBMFhNj_g 該視頻對 LLMs 進(jìn)行了一般性和高級的介紹,涵蓋推理、縮放、微調(diào)、安全問題和提示注入等主題。 b) Nvidia 的生成式 AI 介紹:Course Detail | NVIDIA 注意: 本課程需要您先登錄 nvidia,然后才能看到詳細(xì)信息。

    2024年04月26日
    瀏覽(108)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包