国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

ChatGLM-6B第二代模型開源,拿下LLM模型中文能力評(píng)估榜單第一名

這篇具有很好參考價(jià)值的文章主要介紹了ChatGLM-6B第二代模型開源,拿下LLM模型中文能力評(píng)估榜單第一名。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

ChatGLM-6B 自3月14日發(fā)布以來,深受廣大開發(fā)者喜愛。截至 6 月24日,來自 Huggingface 上的下載量已經(jīng)超過 300w。

為了更進(jìn)一步促進(jìn)大模型開源社區(qū)的發(fā)展,我們?cè)俅紊?jí) ChatGLM-6B,發(fā)布 ChatGLM2-6B 。在主要評(píng)估LLM模型中文能力的 C-Eval 榜單中,截至6月25日 ChatGLM2 模型以 71.1 的分?jǐn)?shù)位居 Rank 0 ,ChatGLM2-6B 模型以 51.7 的分?jǐn)?shù)位居 Rank 6,是榜單上排名最高的開源模型。

ChatGLM-6B第二代模型開源,拿下LLM模型中文能力評(píng)估榜單第一名

  • CEval榜單,ChatGLM2暫時(shí)位居Rank 0,ChatGLM2-6B位居 Rank 6

ChatGLM2-6B 是開源中英雙語對(duì)話模型 ChatGLM-6B 的第二代版本,在保留了初代模型對(duì)話流暢、部署門檻較低等眾多優(yōu)秀特性的基礎(chǔ)之上,ChatGLM2-6B 引入了如下新特性:

更強(qiáng)大的性能:基于 ChatGLM 初代模型的開發(fā)經(jīng)驗(yàn),我們?nèi)嫔?jí)了 ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了 GLM 的混合目標(biāo)函數(shù),經(jīng)過了 1.4T 中英標(biāo)識(shí)符的預(yù)訓(xùn)練與人類偏好對(duì)齊訓(xùn)練,評(píng)測(cè)結(jié)果顯示,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、CEval(+33%)、GSM8K(+571%) 、BBH(+60%)等數(shù)據(jù)集上的性能取得了大幅度的提升,在同尺寸開源模型中具有較強(qiáng)的競(jìng)爭(zhēng)力。

更長(zhǎng)的上下文:基于 FlashAttention 技術(shù),我們將基座模型的上下文長(zhǎng)度(Context Length)由 ChatGLM-6B 的 2K 擴(kuò)展到了 32K,并在對(duì)話階段使用 8K 的上下文長(zhǎng)度訓(xùn)練,允許更多輪次的對(duì)話。但當(dāng)前版本的 ChatGLM2-6B 對(duì)單輪超長(zhǎng)文檔的理解能力有限,我們會(huì)在后續(xù)迭代升級(jí)中著重進(jìn)行優(yōu)化。

更高效的推理:基于 Multi-Query Attention 技術(shù),ChatGLM2-6B 有更高效的推理速度和更低的顯存占用:在官方的模型實(shí)現(xiàn)下,推理速度相比初代提升了 42%,INT4 量化下,6G 顯存支持的對(duì)話長(zhǎng)度由 1K 提升到了 8K。

更開放的協(xié)議:ChatGLM2-6B 權(quán)重對(duì)學(xué)術(shù)研究完全開放,在獲得官方的書面許可后,亦允許商業(yè)使用。如果您發(fā)現(xiàn)我們的開源模型對(duì)您的業(yè)務(wù)有用,我們歡迎您對(duì)下一代模型 ChatGLM3 研發(fā)的捐贈(zèng)。

在關(guān)注ChatGLM第二代模型的同時(shí),我們也看到了團(tuán)隊(duì)的另一個(gè)大模型作品CodeGeeX。CodeGeeX 是一個(gè)具有130億參數(shù)的大規(guī)模多編程語言代碼預(yù)訓(xùn)練模型,該預(yù)訓(xùn)練模型支持二十多種主流編程語言,實(shí)現(xiàn)高精度的代碼生成,代碼翻譯和代碼注釋等功能。模型開源開放,目前在Github上已經(jīng)獲得6000+ Star好評(píng)。

ChatGLM-6B第二代模型開源,拿下LLM模型中文能力評(píng)估榜單第一名

基于CodeGeeX模型的插件產(chǎn)品,支持多種主流IDE,如VS Code、IntelliJ IDEA、PyCharm、Vim等,目前CodeGeeX插件的安裝用戶超過100,000+,每天為開發(fā)者生成數(shù)百萬行代碼。

下載使用——CodeGeeX插件,在VSCode和JetBrains IDEs可以直接免費(fèi)下載使用。CodeGeeX插件可以自動(dòng)實(shí)現(xiàn)代碼生成,可以逐行為代碼添加注釋,也可以進(jìn)行不同編程語言之間的代碼翻譯。特別值得點(diǎn)贊的功能“Ask CodeGeeX”,把類似chatGPT一樣的智能問答功能,與開發(fā)者編程環(huán)境IDE深度融合。開發(fā)者可以在IDE中,通過問答對(duì)話的方式解決技術(shù)問題。

在IDE中使用Ask CodeGeeX功能,使得開發(fā)過程中遇到的問題,都可以在IDE中沉浸式解決,不用跳出開發(fā)環(huán)境尋找解決代碼問題的答案,提升了代碼開發(fā)效率。同時(shí),在這個(gè)新版本中,通過對(duì)話框區(qū)域常用命令“explain/解釋代碼”、“comment/生成注釋”、“fixbug/檢查bug”的快捷方式,可以直接操作代碼,實(shí)現(xiàn)代碼解釋,逐行添加代碼注釋,嘗試修復(fù)代碼片段潛在bug等功能。

“explain/解釋代碼”按鈕,獲得整段代碼解釋

當(dāng)你編寫代碼時(shí),希望了解某一段生成的代碼作何解釋?那么你就可以在CodeGeeX插件的代碼生成區(qū)域中,選中該段代碼,左側(cè)邊欄的對(duì)話區(qū)會(huì)出現(xiàn)浮層,同時(shí)展示選中代碼。在對(duì)話區(qū)通過快捷按鈕:“解釋代碼”,在對(duì)話界面中就可以回復(fù)出整段的代碼解釋。

“comment/生成注釋”按鈕為代碼逐行添加注釋

同樣,當(dāng)你希望為一段生成的代碼逐行添加注釋,你就可以在CodeGeeX代碼生成區(qū)域,選中該段代碼,側(cè)邊欄的對(duì)話區(qū)會(huì)出現(xiàn)浮層,同時(shí)展示選中代碼。在對(duì)話區(qū)通過快捷按鈕:“生成注釋”,在對(duì)話界面就可以直接為這段代碼逐行添加注釋。

“fixbug/檢查bug”修復(fù)代碼潛在bug

當(dāng)你編寫代碼遇到一個(gè)錯(cuò)誤時(shí),在CodeGeeX插件的代碼生成區(qū)域中選中該段代碼,左側(cè)邊欄的對(duì)話區(qū)會(huì)出現(xiàn)浮層,同時(shí)展示選中代碼。在對(duì)話區(qū)通過快捷按鈕:“檢查bug”,代碼編輯區(qū)就可以直接幫你找到這段代碼中的問題并進(jìn)行錯(cuò)誤修復(fù),并且對(duì)修復(fù)代碼的區(qū)域做高亮標(biāo)記,方便進(jìn)行代碼對(duì)照。

本文由博客一文多發(fā)平臺(tái) OpenWrite 發(fā)布!文章來源地址http://www.zghlxwxcb.cn/news/detail-504116.html

到了這里,關(guān)于ChatGLM-6B第二代模型開源,拿下LLM模型中文能力評(píng)估榜單第一名的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【LLM】chatglm-6B模型訓(xùn)練和推理

    【LLM】chatglm-6B模型訓(xùn)練和推理

    本篇文章記錄下 chatglm-6B 訓(xùn)練和推理過程 環(huán)境:Ubuntu 20.04 + 1.13.0+cu116 chatglm-6B 源代碼倉庫:鏈接 chatglm-6B 模型權(quán)重:鏈接 這里使用的是 THUDM 在 hugging face 開源的模型。 因?yàn)槟P捅容^大,倉庫保存模式使用的是 git lfs 模式,再 clone 之后再使用 git lfs pull 去 download 大文件。 c

    2024年02月10日
    瀏覽(49)
  • Python:清華ChatGLM-6B中文對(duì)話模型部署

    Python:清華ChatGLM-6B中文對(duì)話模型部署

    1、簡(jiǎn)介 ChatGLM-6B 是一個(gè)開源的、支持中英雙語的對(duì)話語言模型,基于 General Language Model (GLM) 架構(gòu),具有 62 億參數(shù)。結(jié)合模型量化技術(shù),用戶可以在消費(fèi)級(jí)的顯卡上進(jìn)行本地部署(INT4 量化級(jí)別下最低只需 6GB 顯存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技術(shù),針對(duì)中文問答和對(duì)話

    2024年02月08日
    瀏覽(26)
  • 免費(fèi)部署開源大模型 ChatGLM-6B

    免費(fèi)部署開源大模型 ChatGLM-6B

    參考:【大模型-第一篇】在阿里云上部署ChatGLM3-CSDN博客 ChatGLM 是一個(gè)開源的、支持中英雙語的對(duì)話語言模型,由智譜 AI 和清華大學(xué) KEG 實(shí)驗(yàn)室聯(lián)合發(fā)布,基于 General Language Model (GLM) 架構(gòu),具有 62 億參數(shù)。ChatGLM3-6B 更是在保留了前兩代模型對(duì)話流暢、部署門檻低等眾多優(yōu)秀特

    2024年01月18日
    瀏覽(53)
  • 解鎖大語言模型LLM對(duì)話潛力:ChatGLM3-6B的多輪對(duì)話實(shí)踐與深入探索

    隨著人工智能技術(shù)的飛速發(fā)展,多輪對(duì)話系統(tǒng)已成為自然語言處理領(lǐng)域的研究熱點(diǎn)。多輪對(duì)話要求模型不僅能理解用戶的當(dāng)前輸入,還需結(jié)合對(duì)話歷史進(jìn)行連貫回復(fù),這對(duì)模型的上下文理解和生成能力提出了更高要求。ChatGLM3-6B作為一種先進(jìn)的大型語言模型,在多輪對(duì)話任務(wù)

    2024年02月22日
    瀏覽(24)
  • LLM大語言模型(三):使用ChatGLM3-6B的函數(shù)調(diào)用功能前先學(xué)會(huì)Python的裝飾器

    LLM大語言模型(三):使用ChatGLM3-6B的函數(shù)調(diào)用功能前先學(xué)會(huì)Python的裝飾器

    目錄 ChatGLM3-6B的函數(shù)調(diào)用模式示例 本地啟動(dòng)ChatGLM3-6B工具模式 如何在ChatGLM3-6B里新增一個(gè)自定義函數(shù)呢? get_weather基于Python的裝飾器實(shí)現(xiàn) 函數(shù)注解@register_tool 現(xiàn)在我們來自定義一個(gè)kuakuawo()函數(shù) ChatGLM3-6B目前有三種使用模式: 對(duì)話模式 工具模式(也就是本文要介紹的函數(shù)調(diào)用

    2024年01月25日
    瀏覽(30)
  • 【ChatGLM】基于 ChatGLM-6B + langchain 實(shí)現(xiàn)本地化知識(shí)庫檢索與智能答案生成: 中文 LangChain 項(xiàng)目的實(shí)現(xiàn)開源工作

    【ChatGLM】基于 ChatGLM-6B + langchain 實(shí)現(xiàn)本地化知識(shí)庫檢索與智能答案生成: 中文 LangChain 項(xiàng)目的實(shí)現(xiàn)開源工作

    ? 目錄 【ChatGLM】基于 ChatGLM-6B + langchain 實(shí)現(xiàn)本地化知識(shí)庫檢索與智能答案生成: 中文 LangChain 項(xiàng)目的實(shí)現(xiàn)開源工作 1.克隆源代碼:

    2024年02月11日
    瀏覽(55)
  • 開源模型應(yīng)用落地-chatglm3-6b模型小試-入門篇(三)

    開源模型應(yīng)用落地-chatglm3-6b模型小試-入門篇(三)

    ? ? ?剛開始接觸AI時(shí),您可能會(huì)感到困惑,因?yàn)槊鎸?duì)眾多開源模型的選擇,不知道應(yīng)該選擇哪個(gè)模型,也不知道如何調(diào)用最基本的模型。但是不用擔(dān)心,我將陪伴您一起逐步入門,解決這些問題。 ? ? ?在信息時(shí)代,我們可以輕松地通過互聯(lián)網(wǎng)獲取大量的理論知識(shí)和概念。然

    2024年04月12日
    瀏覽(40)
  • 開源模型應(yīng)用落地-chatglm3-6b模型小試-入門篇(一)

    開源模型應(yīng)用落地-chatglm3-6b模型小試-入門篇(一)

    ? ? ?剛開始接觸AI時(shí),您可能會(huì)感到困惑,因?yàn)槊鎸?duì)眾多開源模型的選擇,不知道應(yīng)該選擇哪個(gè)模型,也不知道如何調(diào)用最基本的模型。但是不用擔(dān)心,我將陪伴您一起逐步入門,解決這些問題。 ? ? ?在信息時(shí)代,我們可以輕松地通過互聯(lián)網(wǎng)獲取大量的理論知識(shí)和概念。然

    2024年04月10日
    瀏覽(31)
  • 開源雙語對(duì)話語言模型 ChatGLM-6B 本地私有化部署

    開源雙語對(duì)話語言模型 ChatGLM-6B 本地私有化部署

    本文首發(fā)于:https://www.licorne.ink/2023/08/llm-chatglm-6b-local-deploy/ ChatGLM-6B 是一個(gè)開源的、支持中英雙語的對(duì)話語言模型,基于 General Language Model (GLM) 架構(gòu),具有 62 億參數(shù)。結(jié)合模型量化技術(shù),用戶可以在消費(fèi)級(jí)的顯卡上進(jìn)行本地部署(INT4 量化級(jí)別下最低只需 6GB 顯存)。 ChatGL

    2024年02月10日
    瀏覽(105)
  • 三個(gè)開源大模型(chatglm2-6B, moss, llama)-chatglm2的測(cè)試

    chatglm2-6B 是清華大學(xué)開源的一款支持中英雙語的對(duì)話語言模型。經(jīng)過了 1.4T 中英標(biāo)識(shí)符的預(yù)訓(xùn)練與人類偏好對(duì)齊訓(xùn)練,具有62 億參數(shù)的 ChatGLM2-6B 已經(jīng)能生成相當(dāng)符合人類偏好的回答。結(jié)合模型量化技術(shù),用戶可以在消費(fèi)級(jí)的顯卡上進(jìn)行本地部署(INT4 量化級(jí)別下最低只需 6G

    2024年02月11日
    瀏覽(43)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包