2023年4月4日,來(lái)自加州大學(xué)圣迭戈分校、中山大學(xué)和微軟亞研的研究者提出了Baize,該模型是讓ChatGPT 自我對(duì)話(huà),批量生成高質(zhì)量多輪對(duì)話(huà)數(shù)據(jù)集,利用該數(shù)據(jù)集對(duì)LLaMA進(jìn)行微調(diào)得到的(目前版本還沒(méi)有RLHF)
關(guān)于Baize的詳細(xì)介紹可以參考:https://mp.weixin.qq.com/s/zxElGfclNbBwTuDG4Qrxnw
-
論文題目:Baize: An Open-Source Chat Model with Parameter-Efficient Tuning on Self-Chat Data
-
論文鏈接:https://arxiv.org/abs/2304.01196
-
Github:https://github.com/project-baize/baize/blob/main/README.md
-
在線 Demo:https://huggingface.co/spaces/project-baize/baize-lora-7B
之前對(duì)LLM模型進(jìn)行了相關(guān)的體驗(yàn)對(duì)比,感興趣的可以閱讀如下列表:
谷歌Bard_VS_百度文心一言
Bard vs. Bing vs. ChatGPT效果對(duì)比
文心一言 VS ChatGLM-6B對(duì)比
GPT4 VS ChatGPT,優(yōu)劣勢(shì)對(duì)比
下面使用Huggingface的在線demo進(jìn)行體驗(yàn),并且與谷歌Bard進(jìn)行對(duì)比:
Note:體驗(yàn)的Prompt來(lái)自谷歌Bard_VS_百度文心一言
下面從ChatGLM-6B的六大方面進(jìn)行測(cè)試對(duì)比
自我認(rèn)知
Bard
文心一言
Baize-7B
結(jié)論:上述三個(gè)模型都有基本的自我認(rèn)知
提綱寫(xiě)作
Bard
文心一言
Baize-7B
結(jié)論:Bard和文心一言給出了大綱的列表;而B(niǎo)aize-7B做了簡(jiǎn)單介紹,最后列出了NLP的相關(guān)任務(wù);Baize-7B明顯不如Bard和文心一言
文案寫(xiě)作
Bard
文心一言
Baize-7B
結(jié)論:Bard和文心一言都生成了一段文案,而B(niǎo)aize-7B只是把關(guān)鍵詞split出來(lái)了;在生成新聞方面Baize-7B也弱于Bard和文心一言,并沒(méi)有生成10個(gè)新聞,而是6個(gè)
郵件寫(xiě)作助手
Bard
文心一言
Baize-7B
結(jié)論:Baize-7B生成的郵件內(nèi)容較短
信息抽取
Bard
文心一言
Baize-7B
結(jié)論:Bard的表現(xiàn)是最好的,提取信息最全,其他兩個(gè)模型只提取了部分信息
角色扮演
Bard
文心一言
Baize-7B
結(jié)論:角色扮演方面Bard表現(xiàn)較好,而文心一言和Baize-7B幾乎沒(méi)有這樣的能力
評(píng)論比較
Bard
文心一言
Baize-7B
結(jié)論:文心一言拒絕回答這樣的問(wèn)題,而B(niǎo)ard和Baize-7B都給出了自己的看法;
旅游向?qū)?/strong>
Bard
文心一言
Baize-7B
文章來(lái)源:http://www.zghlxwxcb.cn/news/detail-488164.html
結(jié)論:在旅游推薦方面,上述三個(gè)模型都給出了答案,但是Baize-7B的答案沒(méi)有換行,缺少條例性文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-488164.html
到了這里,關(guān)于谷歌Bard_VS_Baize-7B_VS_文心一言體驗(yàn)對(duì)比的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!