国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【AIGC】ChatGLM2-6B大模型 據(jù)稱推理性能超越Chat4.0

這篇具有很好參考價(jià)值的文章主要介紹了【AIGC】ChatGLM2-6B大模型 據(jù)稱推理性能超越Chat4.0。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

models

ChatGLM2-6B 是開源中英雙語對話模型 ChatGLM-6B 的第二代版本,在保留了初代模型對話流暢、部署門檻較低等眾多優(yōu)秀特性的基礎(chǔ)之上,ChatGLM2-6B 引入了如下新特性:

更強(qiáng)大的性能:基于 ChatGLM 初代模型的開發(fā)經(jīng)驗(yàn),我們?nèi)嫔壛?ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了 GLM 的混合目標(biāo)函數(shù),經(jīng)過了 1.4T 中英標(biāo)識符的預(yù)訓(xùn)練與人類偏好對齊訓(xùn)練,評測結(jié)果顯示,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、CEval(+33%)、GSM8K(+571%) 、BBH(+60%)等數(shù)據(jù)集上的性能取得了大幅度的提升,在同尺寸開源模型中具有較強(qiáng)的競爭力。
更長的上下文:基于 FlashAttention 技術(shù),我們將基座模型的上下文長度(Context Length)由 ChatGLM-6B 的 2K 擴(kuò)展到了 32K,并在對話階段使用 8K 的上下文長度訓(xùn)練,允許更多輪次的對話。但當(dāng)前版本的 ChatGLM2-6B 對單輪超長文檔的理解能力有限,我們會在后續(xù)迭代升級中著重進(jìn)行優(yōu)化。
更高效的推理:基于 Multi-Query Attention 技術(shù),ChatGLM2-6B 有更高效的推理速度和更低的顯存占用:在官方的模型實(shí)現(xiàn)下,推理速度相比初代提升了 42%,INT4 量化下,6G 顯存支持的對話長度由 1K 提升到了 8K。
更開放的協(xié)議:ChatGLM2-6B 權(quán)重對學(xué)術(shù)研究完全開放,在獲得官方的書面許可后,亦允許商業(yè)使用。如果您發(fā)現(xiàn)我們的開源模型對您的業(yè)務(wù)有用,我們歡迎您對下一代模型 ChatGLM3 研發(fā)的捐贈。
ChatGLM2-6B 開源模型旨在與開源社區(qū)一起推動大模型技術(shù)發(fā)展,懇請開發(fā)者和大家遵守開源協(xié)議,勿將開源模型和代碼及基于開源項(xiàng)目產(chǎn)生的衍生物用于任何可能給國家和社會帶來危害的用途以及用于任何未經(jīng)過安全評估和備案的服務(wù)。目前,本項(xiàng)目團(tuán)隊(duì)未基于 ChatGLM2-6B 開發(fā)任何應(yīng)用,包括網(wǎng)頁端、安卓、蘋果 iOS 及 Windows App 等應(yīng)用。

盡管模型在訓(xùn)練的各個(gè)階段都盡力確保數(shù)據(jù)的合規(guī)性和準(zhǔn)確性,但由于 ChatGLM2-6B 模型規(guī)模較小,且模型受概率隨機(jī)性因素影響,無法保證輸出內(nèi)容的準(zhǔn)確性,且模型易被誤導(dǎo)。本項(xiàng)目不承擔(dān)開源模型和代碼導(dǎo)致的數(shù)據(jù)安全、輿情風(fēng)險(xiǎn)或發(fā)生任何模型被誤導(dǎo)、濫用、傳播、不當(dāng)利用而產(chǎn)生的風(fēng)險(xiǎn)和責(zé)任。

評測結(jié)果
我們選取了部分中英文典型數(shù)據(jù)集進(jìn)行了評測,以下為 ChatGLM2-6B 模型在 MMLU (英文)、C-Eval(中文)、GSM8K(數(shù)學(xué))、BBH(英文) 上的測評結(jié)果。在 evaluation 中提供了在 C-Eval 上進(jìn)行測評的腳本。

【AIGC】ChatGLM2-6B大模型 據(jù)稱推理性能超越Chat4.0
官網(wǎng)文章來源地址http://www.zghlxwxcb.cn/news/detail-510699.html

到了這里,關(guān)于【AIGC】ChatGLM2-6B大模型 據(jù)稱推理性能超越Chat4.0的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 第五篇-ChatGLM2-6B模型下載

    可以使用如下代碼下載 創(chuàng)建下載環(huán)境 編寫代碼 down_glm2.py snapshot_download其他參數(shù) 只允許下載部分類型的文件(以JSON為例) allow_patterns=‘*.json’, 不允許下載部分類型的文件(以JSON為例) ignore_patterns=[‘*.json’] 執(zhí)行下 第一篇-ChatGLM-webui-Windows安裝部署-CPU版 第二篇-二手工作站

    2024年02月14日
    瀏覽(61)
  • 三個(gè)開源大模型(chatglm2-6B, moss, llama)-chatglm2的測試

    chatglm2-6B 是清華大學(xué)開源的一款支持中英雙語的對話語言模型。經(jīng)過了 1.4T 中英標(biāo)識符的預(yù)訓(xùn)練與人類偏好對齊訓(xùn)練,具有62 億參數(shù)的 ChatGLM2-6B 已經(jīng)能生成相當(dāng)符合人類偏好的回答。結(jié)合模型量化技術(shù),用戶可以在消費(fèi)級的顯卡上進(jìn)行本地部署(INT4 量化級別下最低只需 6G

    2024年02月11日
    瀏覽(43)
  • 使用Triton部署chatglm2-6b模型

    NVIDIA Triton Inference Server是一個(gè)針對CPU和GPU進(jìn)行優(yōu)化的云端和推理的解決方案。 支持的模型類型包括TensorRT、TensorFlow、PyTorch(meta-llama/Llama-2-7b)、Python(chatglm)、ONNX Runtime和OpenVino。 NVIDIA Triton Server是一個(gè)高性能的推斷服務(wù)器,具有以下特點(diǎn): 1. 高性能:Triton Server為使用GPU進(jìn)行推

    2024年02月08日
    瀏覽(20)
  • ChatGLM2-6B 大語言模型本地搭建

    ChatGLM2-6B 大語言模型本地搭建

    ChatGLM2-6B 是清華 NLP 團(tuán)隊(duì)于不久前發(fā)布的中英雙語對話模型,它具備了強(qiáng)大的問答和對話功能。擁有最大32K上下文,并且在授權(quán)后可免費(fèi)商用! ChatGLM2-6B的6B代表了訓(xùn)練參數(shù)量為60億,同時(shí)運(yùn)用了模型量化技術(shù),意味著用戶可以在消費(fèi)級的顯卡上進(jìn)行本地部署(INT4 量化級別下

    2024年01月21日
    瀏覽(47)
  • 【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語言模型)

    【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語言模型)

    ChatGLM2-6B是一個(gè)開源的、支持中英雙語的對話語言模型,基于General Language Model (GLM)架構(gòu)。 ChatGLM2-6B具備的能力: 自我認(rèn)知:“介紹一下你的優(yōu)點(diǎn)” 提綱寫作:“幫我寫一個(gè)介紹ChatGLM的博客提綱” 文案寫作:“寫10條熱評文案” 信息抽?。骸畯纳鲜鲂畔⒅谐槿∪?、時(shí)間、事件

    2024年02月14日
    瀏覽(22)
  • LLMs之ChatGLM2:ChatGLM2-6B本地部署之單機(jī)推理(API/CLI/GUI)、低成本部署(GPU量化部署/CPU及其量化部署/Mac部署/多卡部署)、有限資源下高效微調(diào)(全參/P-t

    LLMs之ChatGLM2:ChatGLM2-6B本地部署之單機(jī)推理(API/CLI/GUI)、低成本部署(GPU量化部署/CPU及其量化部署/Mac部署/多卡部署)、有限資源下高效微調(diào)(全參/P-tuning v2)、模型評估和推理之圖文教程之詳細(xì)攻略 目錄 一、配置基礎(chǔ)環(huán)境及其注意事項(xiàng) 第一步、檢測軟硬件環(huán)境

    2024年02月07日
    瀏覽(29)
  • 基于MacBook Pro M1芯片運(yùn)行chatglm2-6b大模型

    基于MacBook Pro M1芯片運(yùn)行chatglm2-6b大模型

    ChatGLM2-6B代碼地址 chatglm2-6b模型地址 Mac M1芯片部署 ChatGLM2-6B 是開源中英雙語對話模型 ChatGLM-6B 的第二代版本,在保留了初代模型對話流暢、部署門檻較低等眾多優(yōu)秀特性的基礎(chǔ)之上,ChatGLM2-6B 引入了如下新特性: 更強(qiáng)大的性能。 更長的上下文。 更高效的推理。 更開放的協(xié)

    2024年01月25日
    瀏覽(23)
  • 【AI】清華開源中英雙語對話模型ChatGLM2-6B本地安裝筆記

    【AI】清華開源中英雙語對話模型ChatGLM2-6B本地安裝筆記

    首先,直接上資源,網(wǎng)盤中是ChatGLM2-6B源碼及模型文件: 鏈接:https://pan.baidu.com/s/1DciporsVT-eSiVIAeU-YmQ 提取碼:cssa 官方的Readme已經(jīng)很詳盡了,再寫點(diǎn)安裝博客有點(diǎn)畫蛇添足。本著記錄自己的工作內(nèi)容的初衷,還是寫一寫吧,畢竟輸出才是最好的學(xué)習(xí)。 本文記錄了本地安裝Cha

    2024年02月16日
    瀏覽(34)
  • 【LLM】chatglm-6B模型訓(xùn)練和推理

    【LLM】chatglm-6B模型訓(xùn)練和推理

    本篇文章記錄下 chatglm-6B 訓(xùn)練和推理過程 環(huán)境:Ubuntu 20.04 + 1.13.0+cu116 chatglm-6B 源代碼倉庫:鏈接 chatglm-6B 模型權(quán)重:鏈接 這里使用的是 THUDM 在 hugging face 開源的模型。 因?yàn)槟P捅容^大,倉庫保存模式使用的是 git lfs 模式,再 clone 之后再使用 git lfs pull 去 download 大文件。 c

    2024年02月10日
    瀏覽(49)
  • 【ChatGLM_02】LangChain知識庫+Lora微調(diào)chatglm2-6b模型+提示詞Prompt的使用原則

    【ChatGLM_02】LangChain知識庫+Lora微調(diào)chatglm2-6b模型+提示詞Prompt的使用原則

    運(yùn)行l(wèi)angchain-ChatGLM-master下面的webui.py文件 (1) 配置知識庫 新建知識庫 向知識庫當(dāng)中添加文件 支持上傳的數(shù)據(jù)格式:word、pdf、excel、csv、txt、文件夾等。但是此處我試了一下 (2) 文檔數(shù)據(jù)測試 word文檔測試: (3) 知識庫測試模式 知識庫測試只會返回輸入內(nèi)容在當(dāng)前知識庫當(dāng)中的

    2024年02月14日
    瀏覽(24)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包