国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【類ChatGPT】中文羊駝大模型Alpaca-13B體驗

這篇具有很好參考價值的文章主要介紹了【類ChatGPT】中文羊駝大模型Alpaca-13B體驗。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

書接上回:https://blog.csdn.net/nlpstarter/article/details/129834424推薦一個在本地部署中文類ChatGPT大模型的開源項目https://blog.csdn.net/nlpstarter/article/details/129834424

之前在推薦了一個中文類ChatGPT的大模型,感興趣的可以看一下上面的鏈接。今天看到最新推出了13B版本的模型,迫不及待下載體驗了。再貼一下項目地址:

項目名稱:中文LLaMA&Alpaca大語言模型+本地部署 (Chinese LLaMA & Alpaca LLMs)
項目地址:GitHub - ymcui/Chinese-LLaMA-Alpaca: 中文LLaMA&Alpaca大語言模型+本地部署 (Chinese LLaMA & Alpaca LLMs)

根據(jù)官方的發(fā)布文檔說明,本次主要更新了以下內(nèi)容:

  1. 重磅更新了13B版本的LLaMA和Alpaca模型,其中Alpaca模型是類ChatGPT的交互模型
  2. 官方進(jìn)一步細(xì)化了評測方法,以GPT-4作為評分員,對7B版本和13B版本進(jìn)行了效果對比,最后7B版本總平均分是49分,13B版本是71分,看起來提升還是很大的。
  3. 另外官方還提供了谷歌colab的在線轉(zhuǎn)換腳本,方便低資源用戶進(jìn)行模型轉(zhuǎn)換

獲取和轉(zhuǎn)換模型的步驟和之前完全一致,這里就不詳細(xì)說了,還是進(jìn)入到大家最關(guān)心的測試環(huán)節(jié)!

順便插播一句:13B版本肯定是要比7B慢一些的,但是幾乎不會有太大的體感,量化模型的整體輸出還是非常順暢的,沒有什么卡殼的情況。

還是問一下關(guān)于溫室效應(yīng)的問題

和7B一樣,答的還是很切題的,甚至可以在聊幾輪過后讓它寫一個小作文。

【類ChatGPT】中文羊駝大模型Alpaca-13B體驗

數(shù)學(xué)問題:騎7個猴

這道題上次答的不盡人意,這次也是一樣。說明目前的訓(xùn)練數(shù)據(jù)以及模型規(guī)模不足以讓模型能夠很好的掌握數(shù)學(xué)運算和推理問題。

【類ChatGPT】中文羊駝大模型Alpaca-13B體驗

如何制作宮保雞???

這道題上次答的還行,不過整體上看起來并不像是在做宮保雞丁。這回似乎也不是很好,材料里有豬肉。

【類ChatGPT】中文羊駝大模型Alpaca-13B體驗

寫一封信

上一次的信寫的還是可以的,這回我增加了難度??梢钥闯?/p>

  1. 信件的內(nèi)容更加豐富了
  2. 令我驚訝的是,居然可以讓他按照我的要求重新改一份,而且是由針對性的修改。為什么覺得驚訝呢,是因為官方并沒有使用多輪的數(shù)據(jù),不知道是因為LLaMA模型自帶的上下文理解能力還是其他的一些magic。
  3. 整體的上下文理解比7B更加準(zhǔn)確,對細(xì)節(jié)把控的更好

【類ChatGPT】中文羊駝大模型Alpaca-13B體驗

文學(xué)方面

官方這次給出了10大類的任務(wù)評測。里面包含一個文學(xué)方面的內(nèi)容,我也試著進(jìn)行了一些提問。可以看出事實性非常好,而且能夠聯(lián)系上下文進(jìn)行簡要的剖析。

【類ChatGPT】中文羊駝大模型Alpaca-13B體驗

我用GPT-4給上面的對話進(jìn)行了打分,可以看出GPT-4對這段對話很滿意,對四段對話都給出了9/10的高分。?

【類ChatGPT】中文羊駝大模型Alpaca-13B體驗

情感方面

雖然官方?jīng)]有評測這個類別,我覺得還是可以評一下的,看看機器有沒有共情能力。從以下的截圖中可以看出,機器還是提供了一些情感建議的,點贊。

【類ChatGPT】中文羊駝大模型Alpaca-13B體驗

角色扮演

官方也沒有評測這個類別,我也試試。看似是有一些模仿能力,但是中間夾雜著一些奇怪的emoji符號,看樣子是訓(xùn)練數(shù)據(jù)里沒有類似的數(shù)據(jù)供擬合。?

【類ChatGPT】中文羊駝大模型Alpaca-13B體驗

總結(jié)

可以看到13B在事實性方面,上下文理解方面得到了進(jìn)一步的進(jìn)化,在書信、寫作等長文本能力上也得到了很大的進(jìn)步。但是也能看到目前模型在數(shù)值推理等場景還是做的很差。這部分能力似乎是各種任務(wù)里比較困難的部分了,光靠簡單的精調(diào)數(shù)據(jù)去擬合應(yīng)該是遠(yuǎn)遠(yuǎn)不夠的。不過,考慮到目前的模型量級以及訓(xùn)練數(shù)據(jù)量來看還是可以的。期待未來更多更好的模型出現(xiàn)。文章來源地址http://www.zghlxwxcb.cn/news/detail-458759.html

到了這里,關(guān)于【類ChatGPT】中文羊駝大模型Alpaca-13B體驗的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • Alpaca-cpp(羊駝-cpp): 可以本地運行的 Alpaca 大語言模型

    Alpaca-cpp(羊駝-cpp): 可以本地運行的 Alpaca 大語言模型

    Stanford Alpaca (羊駝):ChatGPT 學(xué)術(shù)版開源實現(xiàn) Alpaca-Lora (羊駝-Lora): 輕量級 ChatGPT 的開源實現(xiàn)(對標(biāo) Standford Alpaca) I know。這幾天介紹了很多 Alpaca,各種羊駝,似乎有些隨心所欲、雜亂無章。但實際上,正如《寒戰(zhàn)》中梁家輝飾演的李文斌被廉政公署問話時所說:“要在(每一個

    2023年04月24日
    瀏覽(29)
  • 斯坦福用幾百塊錢訓(xùn)練的alpaca,體驗一下基于llama的7b和13b模型,據(jù)說比gpt3.0還牛,結(jié)果怎樣??你能信?

    斯坦福用幾百塊錢訓(xùn)練的alpaca,體驗一下基于llama的7b和13b模型,據(jù)說比gpt3.0還牛,結(jié)果怎樣??你能信?

    好久沒寫代碼了,上頭了,強擼了! 1、自己買個GPU服務(wù)器(如果不訓(xùn)練,可以隨便買個高內(nèi)存的即可),有些網(wǎng)站很便宜,小時起租! 2、alpaca和模型下載地址:GitHub - antimatter15/alpaca.cpp: Locally run an Instruction-Tuned Chat-Style LLM git clone GitHub - antimatter15/alpaca.cpp: Locally run an Instr

    2024年02月04日
    瀏覽(20)
  • 類ChatGPT模型LLaMA的解讀與其微調(diào):Alpaca-LoRA/Vicuna/BELLE/中文LLaMA/姜子牙

    類ChatGPT模型LLaMA的解讀與其微調(diào):Alpaca-LoRA/Vicuna/BELLE/中文LLaMA/姜子牙

    近期,除了研究ChatGPT背后的各種技術(shù)細(xì)節(jié) 不斷看論文(至少100篇,100篇目錄見此:ChatGPT相關(guān)技術(shù)必讀論文100篇),還開始研究一系列開源模型(包括各自對應(yīng)的模型架構(gòu)、訓(xùn)練方法、訓(xùn)練數(shù)據(jù)、本地私有化部署、硬件配置要求、微調(diào)等細(xì)節(jié))? 本文一開始是作為此文《ChatGPT技術(shù)

    2024年02月16日
    瀏覽(27)
  • 體驗訊飛星火認(rèn)知大模型,據(jù)說中文能力超越ChatGPT

    體驗訊飛星火認(rèn)知大模型,據(jù)說中文能力超越ChatGPT

    ?? 作者簡介:大家好,我是阿牛,全棧領(lǐng)域優(yōu)質(zhì)創(chuàng)作者。?? ?? 個人主頁:館主阿牛?? ?? 支持我:點贊??+收藏??+留言?? ??格言:迄今所有人生都大寫著失敗,但不妨礙我繼續(xù)向前!?? 5月6號,科大訊飛發(fā)布了訊飛星火認(rèn)知大模型,據(jù)傳是國產(chǎn)最強AI,訊飛董事長在

    2024年02月04日
    瀏覽(24)
  • 本地部署中文LLaMA模型實戰(zhàn)教程,民間羊駝模型

    博文1:本地部署中文LLaMA模型實戰(zhàn)教程,民間羊駝模型(本博客) 博文2:本地訓(xùn)練中文LLaMA模型實戰(zhàn)教程,民間羊駝模型 博文3:精調(diào)訓(xùn)練中文LLaMA模型實戰(zhàn)教程,民間羊駝模型 LLaMA大部分是英文語料訓(xùn)練的,講中文能力很弱。如果我們想微調(diào)訓(xùn)練自己的LLM模型,基于一個大

    2024年02月04日
    瀏覽(35)
  • 精調(diào)訓(xùn)練中文LLaMA模型實戰(zhàn)教程,民間羊駝模型

    精調(diào)訓(xùn)練中文LLaMA模型實戰(zhàn)教程,民間羊駝模型

    博文1:本地部署中文LLaMA模型實戰(zhàn)教程,民間羊駝模型 博文2:本地訓(xùn)練中文LLaMA模型實戰(zhàn)教程,民間羊駝模型 博文3:精調(diào)訓(xùn)練中文LLaMA模型實戰(zhàn)教程,民間羊駝模型(本博客) 在學(xué)習(xí)完上篇【博文2:本地訓(xùn)練中文LLaMA模型實戰(zhàn)教程,民間羊駝模型】后,我們已經(jīng)學(xué)會了使用

    2024年02月09日
    瀏覽(28)
  • 本地訓(xùn)練中文LLaMA模型實戰(zhàn)教程,民間羊駝模型,24G顯存盤它!

    博文1:本地部署中文LLaMA模型實戰(zhàn)教程,民間羊駝模型 博文2:本地訓(xùn)練中文LLaMA模型實戰(zhàn)教程,民間羊駝模型(本博客) 博文3:精調(diào)訓(xùn)練中文LLaMA模型實戰(zhàn)教程,民間羊駝模型 在學(xué)習(xí)完上篇【1本地部署中文LLaMA模型實戰(zhàn)教程,民間羊駝模型】后,我們已經(jīng)學(xué)會了下載模型,

    2024年02月10日
    瀏覽(32)
  • Llama 及 中文Alpaca模型部署測試

    Llama 及 中文Alpaca模型部署測試

    環(huán)境: Xeon? E5-2680v4 16C 40G RAM WinServer 2019 Standard Edition Python 3.10 依賴庫: accelerate==0.18.0 anyio==3.5.0 argon2-cffi==21.3.0 argon2-cffi-bindings==21.2.0 asttokens==2.0.5 attrs==22.1.0 Babel==2.11.0 backcall==0.2.0 beautifulsoup4==4.12.2 bleach==4.1.0 brotlipy==0.7.0 certifi==2022.12.7 cffi==1.15.1 chardet==5.1.0 charset-normalizer==3.1.

    2024年02月09日
    瀏覽(18)
  • 【LLM】Windows本地CPU部署民間版中文羊駝模型踩坑記錄

    【LLM】Windows本地CPU部署民間版中文羊駝模型踩坑記錄

    目錄 前言 準(zhǔn)備工作 Git? Python3.9? Cmake 下載模型? 合并模型 部署模型? 想必有小伙伴也想跟我一樣體驗下部署大語言模型, 但礙于經(jīng)濟實力, 不過民間上出現(xiàn)了大量的量化模型, 我們平民也能體驗體驗啦~, 該模型可以在筆記本電腦上部署, 確保你電腦至少有16G運行內(nèi)存 開原地址

    2023年04月27日
    瀏覽(28)
  • 中文LLaMa和Alpaca大語言模型開源方案 | 擴充中文詞表 & 針對中文語料進(jìn)行高效編碼

    中文LLaMa和Alpaca大語言模型開源方案 | 擴充中文詞表 & 針對中文語料進(jìn)行高效編碼

    歡迎關(guān)注『CVHub』官方微信公眾號! Title: Efficient and Effective Text Encoding for Chinese Llama and Alpaca PDF: https://arxiv.org/pdf/2304.08177v1.pdf Code: https://github.com/ymcui/Chinese-LLaMA-Alpaca 大型語言模型 LLM ,如ChatGPT和GPT-4,已經(jīng)徹底改變了自然語言處理研究。然而, LLMs 的昂貴訓(xùn)練和部署對于透明

    2024年02月09日
    瀏覽(33)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包