国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

中科院開源多語言大模型Bayling【百聆】:性能媲美GPT-3.5

這篇具有很好參考價值的文章主要介紹了中科院開源多語言大模型Bayling【百聆】:性能媲美GPT-3.5。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

歡迎關(guān)注公眾號 - 【AICV與前沿】,一起學(xué)習(xí)最新技術(shù)吧

歡迎關(guān)注公眾號 - 【AICV與前沿】,一起學(xué)習(xí)最新技術(shù)吧

歡迎關(guān)注公眾號 - 【AICV與前沿】,一起學(xué)習(xí)最新技術(shù)吧

開源地址:https://github.com/ictnlp/BayLing
文章:https://arxiv.org/pdf/2306.10968.pdf

寫在前面

大型語言模型(llm)在語言理解和生成方面表現(xiàn)出了非凡的能力。從基礎(chǔ)llm到后續(xù)llm,指令調(diào)整在使llm與人類偏好保持一致方面起著至關(guān)重要的作用。

然而,現(xiàn)有的llm通常專注于英語,導(dǎo)致非英語語言的表現(xiàn)較差。為了提高非英語語言的性能,需要為基礎(chǔ)llm收集特定語言的訓(xùn)練數(shù)據(jù),并構(gòu)建特定語言的指令進(jìn)行指令調(diào)優(yōu),這兩者都是繁重的工作。為了最大限度地減少人工工作量,我們建議通過交互式翻譯任務(wù)將語言生成和指令遵循的能力從英語轉(zhuǎn)移到其他語言。

我們利用LLaMA作為基礎(chǔ)LLM,自動構(gòu)建交互式翻譯指令來指導(dǎo)調(diào)優(yōu),開發(fā)了指令跟隨LLM BayLing。廣泛的評估表明,盡管使用了相當(dāng)小的參數(shù)尺寸,只有130億,但百靈實現(xiàn)了與gpt -3.5 turbo相當(dāng)?shù)男阅堋7g任務(wù)實驗結(jié)果表明,與GPT-4自動評估相比,BayLing的單輪翻譯能力達(dá)到95%,與gpt -3.5 turbo人工評估相比,交互式翻譯能力達(dá)到96%。為了評估一般任務(wù)的性能,我們創(chuàng)建了一個多回合指令測試集BayLing-80。在BayLing-80上的實驗結(jié)果表明,與gpt -3.5 turbo相比,BayLing的性能提高了89%。在中國高考和英語SAT的知識評估中也表現(xiàn)出色,在眾多遵循教學(xué)的llm中僅次于gpt -3.5 turbo。

相關(guān)工作

自然語言處理(NLP)的最新進(jìn)展導(dǎo)致了強(qiáng)大的大型語言模型的發(fā)展,如GPT-3、PaLM、OPT、GLM、BLOOM和LLaMA。在大型語料庫上進(jìn)行預(yù)訓(xùn)練使這些基礎(chǔ)llm具有非凡的語言理解和生成能力。在此基礎(chǔ)上,這些基礎(chǔ)llm要發(fā)展成為ChatGPT和GPT-4等強(qiáng)大的指令跟隨llm,最重要的一步是理解人類指令并與人類偏好保持一致。

ChatGPT是llm領(lǐng)域的一個里程碑,它通過應(yīng)用指令調(diào)優(yōu)和基于人類反饋的強(qiáng)化學(xué)習(xí)(RLHF),賦予llm非凡的理解人類指令并與人類偏好保持一致的能力。然而,由于與RLHF階段相關(guān)的大量勞動力成本,研究人員主要通過高質(zhì)量的指令調(diào)諧來努力使llm與人類偏好保持一致,從而在該領(lǐng)域取得了值得注意的進(jìn)展。

在本研究中,我們關(guān)注的是如何將LLM從英語為主的語料庫中學(xué)習(xí)到的語言生成和指令跟隨能力轉(zhuǎn)移到其他語言。特別是,我們的目標(biāo)是找到一種通過指令調(diào)優(yōu)同時轉(zhuǎn)移這些功能的有效方法。為此,我們開發(fā)了使用多回合交互式翻譯任務(wù)的BayLing,以同時提高llm的語言對齊、指令跟隨和多回合交互能力。Bayling的出現(xiàn)填補(bǔ)了以往跨語對齊和多回合互動中指令調(diào)優(yōu)研究的空白。

中科院開源多語言大模型Bayling【百聆】:性能媲美GPT-3.5,深度學(xué)習(xí),計算機(jī)視覺,gpt-3,多模態(tài)大模型,人工智能

基礎(chǔ)模型

LLaMA在廣泛的英語任務(wù)中表現(xiàn)出了出色的表現(xiàn),它接受了大約1.4萬億英語主導(dǎo)代幣的訓(xùn)練。鑒于LLaMA-7B和LLaMA-13B具有出色的理解能力和生成能力,將它們分別作為BayLing-7B和BayLing-13B的基礎(chǔ)模型。

對齊交互式翻譯任務(wù)

在互動式翻譯中,用戶與llm進(jìn)行多輪交流,對譯文進(jìn)行潤色,直到滿意為止。下圖提供了交互式翻譯的示例。為了滿足用戶的需求,LLM首先需要理解用戶的意圖,然后根據(jù)用戶的意圖生成譯文。
中科院開源多語言大模型Bayling【百聆】:性能媲美GPT-3.5,深度學(xué)習(xí),計算機(jī)視覺,gpt-3,多模態(tài)大模型,人工智能

由于所涉及的固有挑戰(zhàn)和復(fù)雜性,交互式翻譯的有效執(zhí)行要求llm在語言對齊,指令跟隨和上下文理解方面表現(xiàn)出高水平的熟練程度。此外,由于多回合交互任務(wù)始終以人為中心,并鼓勵llm的輸出滿足用戶的需求和約束,因此llm與人類偏好的一致性自然得到增強(qiáng)。因此,交互式翻譯任務(wù)為同時提高llm的語言一致性和指令跟隨能力提供了一個理想的機(jī)會。此外,llm可以利用其強(qiáng)大的泛化能力,將這些從交互式翻譯中學(xué)到的熟練程度轉(zhuǎn)移到其他任務(wù)中。

為此,我們構(gòu)建了一個包含160K交互翻譯實例的指令數(shù)據(jù)集,包括詞匯、語法、風(fēng)格、創(chuàng)作等多種交互類型。為了增強(qiáng)BayLing指令數(shù)據(jù)的多樣性,我們在指令數(shù)據(jù)中補(bǔ)充了相關(guān)的公共數(shù)據(jù)集,包括單圈指令數(shù)據(jù)的Alpaca和多圈指令數(shù)據(jù)的ShareGPT。下表給出了百靈使用的教學(xué)數(shù)據(jù)統(tǒng)計。
中科院開源多語言大模型Bayling【百聆】:性能媲美GPT-3.5,深度學(xué)習(xí),計算機(jī)視覺,gpt-3,多模態(tài)大模型,人工智能

訓(xùn)練細(xì)節(jié)

以LLaMA-7B和LLaMA-13B作為基礎(chǔ)模型,對BayLing-7B和BayLing-13B在上述提出的指令數(shù)據(jù)上進(jìn)行微調(diào)。訓(xùn)練配置包括學(xué)習(xí)率為25 -5和權(quán)重衰減為0.0。此外,對BayLing進(jìn)行了3個epoch的微調(diào),使用批大小為32。最大文本長度限制為1024,并且只計算多回合交互中輸出部分的損失。

在訓(xùn)練過程中,使用了DeepSpeed和Gradient checkpoint技術(shù)來優(yōu)化內(nèi)存消耗。在推理過程中,BayLing-13B可以通過8位量化部署在16G內(nèi)存的GPU上。

測評媲美GPT3.5

為了進(jìn)行人工評價,首先選擇了60個句子,其中包括30個漢語句子和30個英語句子作為源句子進(jìn)行翻譯。然后,邀請了5位英語專業(yè)的注釋者,與BayLing-13B、BayLing-7B、ChatGPT17、vicana - 13b和ChatGLM-6B這5個系統(tǒng)進(jìn)行了4次交互,對這60個翻譯句子進(jìn)行了4次交互。系統(tǒng)標(biāo)識是隱藏的,并且是隨機(jī)排列的,以確保注釋者不知道他們正在與之交互的系統(tǒng)。在互動過程中,要求注釋者一半用中文,另一半用英語,以保證教學(xué)語言的多樣性。此外,我們在60個案例中設(shè)計了五個不同的互動類別:詞匯,語法,風(fēng)格,建議和創(chuàng)作(即每個類別由12個案例組成),當(dāng)面對不同類型的需求時,能夠分析系統(tǒng)的性能。

測評發(fā)現(xiàn)百聆的交互翻譯能力與其他開源大模型相比具有明顯優(yōu)勢,13B 參數(shù)量的百聆在這一任務(wù)上的性能甚至能與 175B 參數(shù)量的 ChatGPT 相媲美。
中科院開源多語言大模型Bayling【百聆】:性能媲美GPT-3.5,深度學(xué)習(xí),計算機(jī)視覺,gpt-3,多模態(tài)大模型,人工智能

從翻譯能力、指令跟隨能力和多回合交互能力三個方面分別給出了人的評價。

(a)翻譯:評估llm的整體翻譯水平。

(b)指令遵循:評估llm能否成功完成指令并滿足人類要求的程度。

?多回合互動:衡量llm在多回合對話中理解和保持連貫性的能力,測試他們對語境的理解和一致性。

對于每個案例,要求注釋者同時評估五個系統(tǒng)的交互過程,并從翻譯質(zhì)量、指令遵循和多回合交互性能三個方面(每個方面1分)給出1到10分的分?jǐn)?shù)。此外,要求注釋者從這三個方面分別給出5個系統(tǒng)的1到5級。最后將五個注釋者的分?jǐn)?shù)和排名取平均值,作為五個系統(tǒng)的最終分?jǐn)?shù)和排名。
中科院開源多語言大模型Bayling【百聆】:性能媲美GPT-3.5,深度學(xué)習(xí),計算機(jī)視覺,gpt-3,多模態(tài)大模型,人工智能文章來源地址http://www.zghlxwxcb.cn/news/detail-543286.html

到了這里,關(guān)于中科院開源多語言大模型Bayling【百聆】:性能媲美GPT-3.5的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 注意,中科院最新通告:棄用影響因子

    注意,中科院最新通告:棄用影響因子

    2022年的JCR SCI影響因子,令人咂舌!大多數(shù)的SCI 期刊影響因子暴漲,這其中有疫情原因、引用率提升造成,也有存在著很多新興雜志期刊為提升IF采用的一系列“聰明”的動作。 7月5日,中科院文獻(xiàn)情報中心,發(fā)個了文章,宣告要和影響因子說再見了,取而代之的是“期刊超

    2024年02月06日
    瀏覽(21)
  • ChatGPT系列之——中科院AcademicGPT學(xué)術(shù)優(yōu)化

    ChatGPT系列之——中科院AcademicGPT學(xué)術(shù)優(yōu)化

    歡迎來踩個人Notion博客:一枚風(fēng)雨流蘇 2023.04.15二次更新:更新了自動運行項目的腳本 GitHub項目網(wǎng)址:https://github.com/binary-husky/chatgpt_academic OpenAI的API KEY獲?。篛penAI官網(wǎng) Git下載:Git 詳細(xì)安裝教程(詳解 Git 安裝過程的每一個步驟) Git下載地址 Gradio依賴本地安裝:Gradio下載

    2024年02月04日
    瀏覽(25)
  • windows-中科院學(xué)術(shù)ChatGPT優(yōu)化安裝記錄

    windows-中科院學(xué)術(shù)ChatGPT優(yōu)化安裝記錄

    (在git bash 中打開輸入就行) 打開后輸入命令即可 然后你便得到了它,進(jìn)入該文件夾 打開命令終端,為他配置安裝 Python 的 pip 命令安裝項目依賴(檢查一下是否安裝python,要不就尬了(~ ̄▽ ̄)~) 確定安裝后,就為他配置依賴吧 輸入 等待一會 好了,接下來為他配置代理

    2023年04月14日
    瀏覽(25)
  • 中科院ChatGPT 學(xué)術(shù)版 本地部署實踐記錄

    中科院ChatGPT 學(xué)術(shù)版 本地部署實踐記錄

    近期中科院ChatGPT 學(xué)術(shù)版 在github上限了,截止本文發(fā)布已經(jīng)有18.3k的star了。 他們將ChatGPT 學(xué)術(shù)版開源出來真的非常好,能讓更多的人享受到科技的紅利。 我也想著試一下,這次也記錄下本地部署的過程。 其實文件中的readme,已經(jīng)說的很清楚了,這里是給自己一下午的工作做

    2023年04月08日
    瀏覽(25)
  • 中科院基于gpt的學(xué)術(shù)優(yōu)化網(wǎng)站搭建教程

    中科院基于gpt的學(xué)術(shù)優(yōu)化網(wǎng)站搭建教程

    我使用的python為3.10版本,編譯器為pycharm,瀏覽器為火狐 我們進(jìn)入github找到中科院提供的資源: https://github.com/binary-husky/chatgpt_academic 其中有關(guān)于ChatGPT學(xué)術(shù)優(yōu)化的安裝步驟,使用教程,我沒有用Git下載,直接下載的安裝包,將安裝包解壓到anaconda創(chuàng)建的環(huán)境下的一個項目里:

    2024年02月04日
    瀏覽(32)
  • 「部署全流程」 中科院學(xué)術(shù)專業(yè)版chatGPT來啦

    「部署全流程」 中科院學(xué)術(shù)專業(yè)版chatGPT來啦

    上周末的時候,一位開發(fā)者將名為 「ChatGPT Academic」 的項目開源至 GitHub。 僅用了短短一兩天,該項目 Star 數(shù)便增長到了 21k+ ,成為 GitHub 上又一個基于 ChatGPT 構(gòu)建的熱門開源項目。 這個項目就是《 中科院學(xué)術(shù)專業(yè)版 ChatGPT 》。 今天我也處于好奇對這個項目進(jìn)行了部署和嘗試

    2023年04月08日
    瀏覽(20)
  • 玩轉(zhuǎn)ChatGPT:中科院ChatGPT Academic項目部署與測評

    玩轉(zhuǎn)ChatGPT:中科院ChatGPT Academic項目部署與測評

    一、ChatGPT Academic簡介 最近,以ChatGPT為代表的超大規(guī)模語言模型火出了圈,各種二次開發(fā)項目也是層出不窮。 比如說今天我們玩弄的這個“ChatGPT Academic”,在GitHub上已經(jīng)13.7K的點贊了。 項目地址:https://github.com/binary-husky/chatgpt_academic 用項目的原話介紹:“ 科研工作專用Ch

    2023年04月11日
    瀏覽(20)
  • 首站中科院!百度商業(yè)AI技術(shù)創(chuàng)新大賽開啟巡回宣講

    首站中科院!百度商業(yè)AI技術(shù)創(chuàng)新大賽開啟巡回宣講

    近日,百度商業(yè)AI技術(shù)創(chuàng)新大賽正式啟動,并于5月18日起開啟高校巡回宣講。 宣講會首站落地中國科學(xué)院大學(xué),中國科學(xué)院大學(xué)人工智能學(xué)院副院長、教授、博士生導(dǎo)師肖俊教授,百度商業(yè)研發(fā)主任架構(gòu)師焦學(xué)武,百度商業(yè)資深工程師呂顯赫、胡明清等人作為嘉賓出席了本次

    2024年02月06日
    瀏覽(34)
  • 【25】SCI易中期刊推薦——神經(jīng)網(wǎng)絡(luò)科學(xué)(中科院4區(qū))
  • 【3】SCI易中期刊推薦——人工智能領(lǐng)域(中科院1區(qū))

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包