国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

三個開源大模型(chatglm2-6B, moss, llama)-chatglm2的測試

這篇具有很好參考價值的文章主要介紹了三個開源大模型(chatglm2-6B, moss, llama)-chatglm2的測試。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報違法"按鈕提交疑問。

chatglm2-6B 是清華大學(xué)開源的一款支持中英雙語的對話語言模型。經(jīng)過了 1.4T 中英標(biāo)識符的預(yù)訓(xùn)練與人類偏好對齊訓(xùn)練,具有62 億參數(shù)的 ChatGLM2-6B 已經(jīng)能生成相當(dāng)符合人類偏好的回答。結(jié)合模型量化技術(shù),用戶可以在消費(fèi)級的顯卡上進(jìn)行本地部署(INT4 量化級別下最低只需 6GB 顯存)。

在個人PC上安裝 chatglm2-6B后的測試情況給大家介紹一下。分別從用戶身份、編程計算能力、和推理能力等幾個方面進(jìn)行測試。和chatgpt3.5做一個對比,在中文方面咯有優(yōu)勢,在推理能力上稍弱一些。

比如以不同的角色來寫一首詩

如果你是一個大學(xué)生,寫一首春天的詩

ChatGLM:

春意盎然,世界新生,

嫩綠的嫩芽,悄悄地生長。

繽紛的花朵,綻放的盛況,

春雨的滋潤,細(xì)心的呵護(hù)。

遠(yuǎn)處的山林,柔和的微風(fēng),

拂過臉龐的溫暖,

似乎在呢喃,也在呢喃。

春天的大學(xué),充滿了生機(jī),

知識的海洋,探索的樂園,

每一個角落,都充滿了光芒,

每一個靈魂,都充滿了希望。

青春在這里,綻放在這里,

愿我們都能,在這里收獲果實(shí)。

春天的大學(xué),春天的青春,

愿我們都能,在這里放飛自己的夢想。

如果你是一個小學(xué)生,寫一首春天的詩

ChatGLM:

萬物生長,鳥兒歌唱,

春風(fēng)拂面,花兒綻放。

太陽升起,光芒四溢,

微風(fēng)拂過,心情歡暢。

大自然恩賜一切,

讓我們享受,欣欣向榮。

春天是個寶藏,

蘊(yùn)藏?zé)o限奧秘。

讓我們一起,共同探索,

感受春天的美好!

翻譯:

Spring has come, and all things are awakening,

Misty rain, nourishing the earth.

All things grow, birds sing,

Spring breeze, flowers bloom.

The sun rises, and the light shines bright,

微風(fēng)吹過, and one is happy and bright.

Nature has given us everything we need,

Let us enjoy, and flourish together.

Spring is a treasure trove,

A secret world of endless wonders.

Let’s explore together, and see,

How nature’s beauty blooms this year.

計算和編程能力測試

5*4/10 等于多少

ChatGLM:5*4/10 = 20/10 = 2

用戶:用python 寫一段程序, 計算 5*4/10 等于多少

ChatGLM:以下是一段 Python 程序,可以計算并輸出 5*4/10 的結(jié)果:


# 計算并輸出 5*4/10 的結(jié)果

result = 5 * 4 / 10

print(result)

輸出結(jié)果為:


2

中文推理能力測試

猴子數(shù)量計算測試

用戶:樹上有7只猴子, 地上有1只猴子 , 一共幾只猴子?

ChatGLM:樹上有7只猴子,地上有1只猴子,一共是8只猴子。

用戶:地上1只猴子被趕走了,還剩下幾只猴子?

ChatGLM:如果地上最后一只猴子被趕走了,那么還剩下6只猴子。文章來源地址http://www.zghlxwxcb.cn/news/detail-676233.html

到了這里,關(guān)于三個開源大模型(chatglm2-6B, moss, llama)-chatglm2的測試的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish) 部署chatglm2-6b 開源中英雙語對話模型

    【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish) 部署chatglm2-6b 開源中英雙語對話模型

    項(xiàng)目地址 chatglm2-6b 下載模型 創(chuàng)建測試項(xiàng)目 創(chuàng)建虛擬環(huán)境安裝依賴 完整的venv環(huán)境 main.py 執(zhí)行 python進(jìn)程cpu使用率100.3%持續(xù)了很長時間,沒有啟用多線程?

    2024年01月20日
    瀏覽(26)
  • ChatGLM2-6B、ChatGLM-6B 模型介紹及訓(xùn)練自己數(shù)據(jù)集實(shí)戰(zhàn)

    ChatGLM2-6B、ChatGLM-6B 模型介紹及訓(xùn)練自己數(shù)據(jù)集實(shí)戰(zhàn)

    介紹 ChatGLM-6B是開源的文本生成式對話模型,基于General Language Model(GLM)框架,具有62億參數(shù),結(jié)合模型蒸餾技術(shù),實(shí)測在2080ti顯卡訓(xùn)練中上(INT4)顯存占用 6G 左右, 優(yōu)點(diǎn) :1.較低的部署門檻: FP16 半精度下,ChatGLM-6B 需要至少 13GB 的顯存進(jìn)行推理,結(jié)合模型量化技術(shù),一需求可以進(jìn)一步

    2024年02月12日
    瀏覽(25)
  • AIGC - ChatGLM大模型:ChatGLM2-6B模型推理部署

    AIGC - ChatGLM大模型:ChatGLM2-6B模型推理部署

    如果你要問我為什么直接部署ChatGLM2的模型? 因?yàn)楫?dāng)我在8月份在上海召開的全球人工智能大會上了解到清華-智譜發(fā)布的ChatGLM模型時,它已經(jīng)發(fā)布了新的版本ChatGLM2,并且推理的效果提升了不少,那么本著只要最好的原則,我就直接上手先玩新版本了。 作為AIGC方面的小白來說

    2024年02月06日
    瀏覽(23)
  • 第五篇-ChatGLM2-6B模型下載

    可以使用如下代碼下載 創(chuàng)建下載環(huán)境 編寫代碼 down_glm2.py snapshot_download其他參數(shù) 只允許下載部分類型的文件(以JSON為例) allow_patterns=‘*.json’, 不允許下載部分類型的文件(以JSON為例) ignore_patterns=[‘*.json’] 執(zhí)行下 第一篇-ChatGLM-webui-Windows安裝部署-CPU版 第二篇-二手工作站

    2024年02月14日
    瀏覽(60)
  • 使用Triton部署chatglm2-6b模型

    NVIDIA Triton Inference Server是一個針對CPU和GPU進(jìn)行優(yōu)化的云端和推理的解決方案。 支持的模型類型包括TensorRT、TensorFlow、PyTorch(meta-llama/Llama-2-7b)、Python(chatglm)、ONNX Runtime和OpenVino。 NVIDIA Triton Server是一個高性能的推斷服務(wù)器,具有以下特點(diǎn): 1. 高性能:Triton Server為使用GPU進(jìn)行推

    2024年02月08日
    瀏覽(20)
  • ChatGLM2-6B 大語言模型本地搭建

    ChatGLM2-6B 大語言模型本地搭建

    ChatGLM2-6B 是清華 NLP 團(tuán)隊(duì)于不久前發(fā)布的中英雙語對話模型,它具備了強(qiáng)大的問答和對話功能。擁有最大32K上下文,并且在授權(quán)后可免費(fèi)商用! ChatGLM2-6B的6B代表了訓(xùn)練參數(shù)量為60億,同時運(yùn)用了模型量化技術(shù),意味著用戶可以在消費(fèi)級的顯卡上進(jìn)行本地部署(INT4 量化級別下

    2024年01月21日
    瀏覽(47)
  • ChatGLM2-6B模型推理流程和模型架構(gòu)詳解

    ChatGLM2-6B模型推理流程和模型架構(gòu)詳解

    提示:文章寫完后,目錄可以自動生成,如何生成可參考右邊的幫助文檔 因?yàn)楸救嗽谧龃竽P蛢?yōu)化方面的研究,之前拆了ChatGLM2的源代碼,看看能從哪些地方深入。結(jié)果剛拆完沒多久,昨天,也就是10 月 27 日,智譜 AI 在 2023 中國計算機(jī)大會(CNCC)上發(fā)布了自研第三代對話大模

    2024年02月03日
    瀏覽(30)
  • 【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語言模型)

    【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語言模型)

    ChatGLM2-6B是一個開源的、支持中英雙語的對話語言模型,基于General Language Model (GLM)架構(gòu)。 ChatGLM2-6B具備的能力: 自我認(rèn)知:“介紹一下你的優(yōu)點(diǎn)” 提綱寫作:“幫我寫一個介紹ChatGLM的博客提綱” 文案寫作:“寫10條熱評文案” 信息抽?。骸畯纳鲜鲂畔⒅谐槿∪?、時間、事件

    2024年02月14日
    瀏覽(22)
  • 從零開始學(xué)AI:ChatGLM2-6B 部署測試

    ChatGLM2-6B 是開源中英雙語對話模型 ChatGLM-6B 的第二代版本,在保留了初代模型對話流暢、部署門檻較低等眾多優(yōu)秀特性的基礎(chǔ)之上,ChatGLM2-6B 引入了如下新特性: 更強(qiáng)大的性能:基于 ChatGLM 初代模型的開發(fā)經(jīng)驗(yàn),我們?nèi)嫔壛?ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了 GLM 的混

    2024年04月28日
    瀏覽(22)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包