国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

大模型思維鏈(CoT prompting)

這篇具有很好參考價(jià)值的文章主要介紹了大模型思維鏈(CoT prompting)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

思維鏈(Chain of Thought,CoT)

**CoT 提示過(guò)程是一種大模型提示方法,它鼓勵(lì)大語(yǔ)言模型解釋其推理過(guò)程。**思維鏈的主要思想是通過(guò)向大語(yǔ)言模型展示一些少量的 exapmles,在樣例中解釋推理過(guò)程,大語(yǔ)言模型在回答提示時(shí)也會(huì)顯示推理過(guò)程。這種推理的解釋往往會(huì)引導(dǎo)出更準(zhǔn)確的結(jié)果。
大模型思維鏈(CoT prompting),大模型,自然語(yǔ)言處理,大模型,人工智能,深度學(xué)習(xí)

1.零樣本思維鏈(Zero Shot Chain of Thought,Zero-shot-CoT)

零樣本思維鏈(Zero Shot Chain of Thought,Zero-shot-CoT)提示過(guò)程是對(duì) CoT prompting 的后續(xù)研究,引入了一種非常簡(jiǎn)單的零樣本提示。他們發(fā)現(xiàn),通過(guò)在問(wèn)題的結(jié)尾附加“Let’s think step by step”這幾個(gè)詞,大語(yǔ)言模型能夠生成一個(gè)回答問(wèn)題的思維鏈。從這個(gè)思維鏈中,他們能夠提取更準(zhǔn)確的答案。
大模型思維鏈(CoT prompting),大模型,自然語(yǔ)言處理,大模型,人工智能,深度學(xué)習(xí)
從技術(shù)上講,完整的零樣本思維鏈(Zero-shot-CoT)過(guò)程涉及兩個(gè)單獨(dú)的提示/補(bǔ)全結(jié)果。在下圖中,左側(cè)生成一個(gè)思維鏈,而右側(cè)接收來(lái)自第一個(gè)提示(包括第一個(gè)提示本身)的輸出,并從思維鏈中提取答案。這個(gè)第二個(gè)提示是一個(gè)自我增強(qiáng)的提示。
大模型思維鏈(CoT prompting),大模型,自然語(yǔ)言處理,大模型,人工智能,深度學(xué)習(xí)

2.多數(shù)投票提高CoT性能——自洽性(Self-consistency)

Self-Consistency Improves Chain of Thought Reasoning in Language Models.
這篇文章幾乎用的和 CoT 完全一樣的數(shù)據(jù)集和設(shè)置,主要改進(jìn)是對(duì)答案進(jìn)行了多數(shù)投票(majority vote),并且發(fā)現(xiàn)其可以顯著地提高思維鏈方法的性能。

文章提出的方法叫自洽性(Self-consistency),是對(duì) CoT 的一個(gè)補(bǔ)充,它不僅僅生成一個(gè)思路鏈,而是生成多個(gè)思路鏈,然后取多數(shù)答案作為最終答案。
大模型思維鏈(CoT prompting),大模型,自然語(yǔ)言處理,大模型,人工智能,深度學(xué)習(xí)

3.LtM (Least to Most prompting)提示

最少到最多提示過(guò)程 (Least to Most prompting, LtM) 將思維鏈提示過(guò)程 (CoT prompting) 進(jìn)一步發(fā)展,首先將問(wèn)題分解為子問(wèn)題,然后逐個(gè)解決。它是受到針對(duì)兒童的現(xiàn)實(shí)教育策略的啟發(fā)而發(fā)展出的一種技術(shù)。

與思維鏈提示過(guò)程類似,需要解決的問(wèn)題被分解成一組建立在彼此之上的子問(wèn)題。在第二步中,這些子問(wèn)題被逐個(gè)解決。與思維鏈不同的是,先前子問(wèn)題的解決方案被輸入到提示中,以嘗試解決下一個(gè)問(wèn)題。

context + 子問(wèn)題 + 子問(wèn)題解題過(guò)程 + 子問(wèn)題答案 + 最終問(wèn)題,然后讓模型去生成解題過(guò)程和正確答案,那么這一步也是用 CoT 來(lái)做的。
大模型思維鏈(CoT prompting),大模型,自然語(yǔ)言處理,大模型,人工智能,深度學(xué)習(xí)
大模型思維鏈(CoT prompting),大模型,自然語(yǔ)言處理,大模型,人工智能,深度學(xué)習(xí)

4.Flan-PaLM/T5:CoT + Finetuning

Scaling Instruction-Finetuned Language Models
總結(jié)一下,這篇工作提出了 Flan 的微調(diào)框架,核心有四點(diǎn):

  1. 統(tǒng)一的輸入輸出格式(4種類型)
  2. 引入 CoT (chain-of-thought)
  3. 大幅提高任務(wù)數(shù)量
  4. 大幅提高模型體積
    實(shí)現(xiàn)了用一個(gè)模型來(lái)解決超過(guò) 1800 種幾乎全部的 NLP 任務(wù),通過(guò)較低的成本,極大發(fā)掘了現(xiàn)有語(yǔ)言模型的泛化性能,讓大家看到了通用模型的希望。
    大模型思維鏈(CoT prompting),大模型,自然語(yǔ)言處理,大模型,人工智能,深度學(xué)習(xí)
    大模型思維鏈(CoT prompting),大模型,自然語(yǔ)言處理,大模型,人工智能,深度學(xué)習(xí)

5.提升小模型的推理能力:Fine-tune-CoT

Fine-tune-CoT 的核心思想是采用 Zero-Shot-CoT 生成我們的問(wèn)答數(shù)據(jù),然后使用溫度 T 采樣(也可以用 Top-k 采樣),以此生成盡可能多的數(shù)據(jù),然后再進(jìn)行 Fine-tune。

其實(shí)就是使用不同的溫度參數(shù) T 采樣,用 ChatGPT 這樣的大模型生成 CoT 數(shù)據(jù),然后再用小模型進(jìn)行 Fine-tune。

CoT的局限性

首先,思維鏈必須在模型規(guī)模足夠大時(shí)才能涌現(xiàn)。

在 Jason Wei 等的研究中,PaLM 在擴(kuò)展到 540B 參數(shù)時(shí),與思維鏈提示結(jié)合,才表現(xiàn)出了先進(jìn)的性能。一些小規(guī)模模型,思維鏈并沒(méi)有太大的影響,能力提升也不會(huì)很大。

谷歌大腦的研究人員認(rèn)為,策略問(wèn)題需要大量的世界知識(shí),而小型模型沒(méi)有足夠的參數(shù)來(lái)記憶這些世界知識(shí),所以也不太可能產(chǎn)生正確的推理步驟。

但問(wèn)題是,能落地到產(chǎn)業(yè)的模型,規(guī)模必然不會(huì)太大,思維鏈拆解了更多的步驟、用到更多的計(jì)算資源,相當(dāng)于更加耗費(fèi)腦力,很多研究機(jī)構(gòu)和企業(yè)是負(fù)擔(dān)不起 175B 參數(shù)以上的大模型。

所以思維鏈必須要探索,如何在較小的模型中進(jìn)行推理,降低實(shí)際應(yīng)用的成本。

其次,思維鏈的應(yīng)用領(lǐng)域是有限的。

目前,思維鏈只是在一些有限的領(lǐng)域,比如數(shù)學(xué)問(wèn)題,五個(gè)常識(shí)推理基準(zhǔn)(CommonsenseQA,StrategyQA,Date Understanding 和 Sports Understanding 以及 SayCan)上顯現(xiàn)出作用,其他類型的任務(wù),像是機(jī)器翻譯,性能提升效果還有待評(píng)估。

而且,相關(guān)研究用到的模型(GPT-3 API)或數(shù)據(jù)集,都是半公開(kāi)或不公開(kāi)的,這就使其難以被復(fù)現(xiàn)和驗(yàn)證。嚴(yán)謹(jǐn)來(lái)看,思維鏈的效果還需要被進(jìn)一步探索,才能下定論。

此外,即使有思維鏈提示,大語(yǔ)言模型依然不能解決小學(xué)水平的數(shù)學(xué)問(wèn)題。

沒(méi)有思維鏈,數(shù)學(xué)推理是指定不行。但有了思維鏈,大語(yǔ)言模型也可能出現(xiàn)錯(cuò)誤推理,尤其是非常簡(jiǎn)單的計(jì)算錯(cuò)誤。Jason Wei 等的論文中,曾展示過(guò)在 GSM8K 的一個(gè)子集中,大語(yǔ)言模型出現(xiàn)了 8% 的計(jì)算錯(cuò)誤,比如6 * 13 = 68(正確答案是78)。

這說(shuō)明,即使有了思維鏈,大語(yǔ)言模型還是沒(méi)有真正理解數(shù)學(xué)邏輯,不知道加減乘除的真實(shí)意義,只是通過(guò)更精細(xì)的疊加來(lái)“照葫蘆畫(huà)瓢”,所以,對(duì)于有精確要求的任務(wù),還要進(jìn)一步探索新的技術(shù)。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-838339.html

到了這里,關(guān)于大模型思維鏈(CoT prompting)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 解密Prompt系列9. 模型復(fù)雜推理-思維鏈COT基礎(chǔ)和進(jìn)階玩法

    解密Prompt系列9. 模型復(fù)雜推理-思維鏈COT基礎(chǔ)和進(jìn)階玩法

    終于寫(xiě)了一篇和系列標(biāo)題沾邊的博客,這一篇真的是解密prompt!我們會(huì)討論下思維鏈(chain-of-Thought)提示詞究竟要如何寫(xiě),如何寫(xiě)的更高級(jí)。COT其實(shí)是Self-ASK,ReACT等利用大模型進(jìn)行工具調(diào)用方案的底層邏輯,因此在Agent調(diào)用章節(jié)之前我們會(huì)有兩章來(lái)講思維鏈 先打預(yù)防針,COT當(dāng)前

    2024年02月09日
    瀏覽(26)
  • 自然語(yǔ)言處理從入門(mén)到應(yīng)用——LangChain:提示(Prompts)-[提示模板:部分填充的提示模板和提示合成]

    分類目錄:《大模型從入門(mén)到應(yīng)用》總目錄 LangChain系列文章: 基礎(chǔ)知識(shí) 快速入門(mén) 安裝與環(huán)境配置 鏈(Chains)、代理(Agent:)和記憶(Memory) 快速開(kāi)發(fā)聊天模型 模型(Models) 基礎(chǔ)知識(shí) 大型語(yǔ)言模型(LLMs) 基礎(chǔ)知識(shí) LLM的異步API、自定義LLM包裝器、虛假LLM和人類輸入LLM(

    2024年02月14日
    瀏覽(20)
  • 自然語(yǔ)言處理:大語(yǔ)言模型入門(mén)介紹

    隨著自然語(yǔ)言處理(Natural Language Processing, NLP)的發(fā)展,此技術(shù)現(xiàn)已廣泛應(yīng)用于文本分類、識(shí)別和總結(jié)、機(jī)器翻譯、信息提取、問(wèn)答系統(tǒng)、情感分析、語(yǔ)音識(shí)別、文本生成等任務(wù)。 研究人員發(fā)現(xiàn)擴(kuò)展模型規(guī)模可以提高模型能力,由此創(chuàng)造了術(shù)語(yǔ)——大語(yǔ)言模型(Large Language

    2024年02月12日
    瀏覽(27)
  • 《自然語(yǔ)言處理》chapter7-預(yù)訓(xùn)練語(yǔ)言模型

    《自然語(yǔ)言處理》chapter7-預(yù)訓(xùn)練語(yǔ)言模型

    這是閱讀《自然語(yǔ)言處理-基于預(yù)訓(xùn)練模型的方法》的學(xué)習(xí)筆記,記錄學(xué)習(xí)過(guò)程,詳細(xì)的內(nèi)容請(qǐng)大家購(gòu)買(mǎi)書(shū)籍查閱。 同時(shí)參考沐神的兩個(gè)視頻: GPT,GPT-2,GPT-3 論文精讀【論文精讀】 BERT 論文逐段精讀【論文精讀】 自然語(yǔ)言處理的核心在于如何更好地建模語(yǔ)言。廣義上的預(yù)訓(xùn)

    2024年02月10日
    瀏覽(24)
  • 30個(gè)最新的自然語(yǔ)言處理模型

    T5:基于Transformer,結(jié)合了多任務(wù)學(xué)習(xí)和無(wú)監(jiān)督預(yù)訓(xùn)練,并使用大規(guī)模的英文維基百科語(yǔ)料庫(kù)進(jìn)行訓(xùn)練。 GPT-3:同樣基于Transformer,使用了極其龐大的語(yǔ)料庫(kù),并使用Zero-shot學(xué)習(xí)實(shí)現(xiàn)了自然語(yǔ)言推理功能。 Chinchilla:一種新型自然語(yǔ)言生成模型,使用了自適應(yīng)正則化和動(dòng)態(tài)使用

    2023年04月27日
    瀏覽(26)
  • 利用COT思維鏈技術(shù)和Prompt提示語(yǔ)工程與微調(diào)后的大模型集成方式

    COT思維鏈技術(shù)和Prompt提示語(yǔ)工程是通過(guò)對(duì)模型的輸入進(jìn)行設(shè)計(jì)和優(yōu)化,以引導(dǎo)模型生成期望的輸出。 COT思維鏈技術(shù),是一種通過(guò)梳理和串聯(lián)關(guān)鍵信息,形成邏輯嚴(yán)謹(jǐn)、條理清晰的思維鏈。在使用大型語(yǔ)言模型時(shí),我們可以將這種思維鏈的關(guān)鍵信息以連貫和邏輯一致的方式展示

    2024年02月04日
    瀏覽(40)
  • 自然語(yǔ)言處理 微調(diào)ChatGLM-6B大模型

    自然語(yǔ)言處理 微調(diào)ChatGLM-6B大模型

    bert的主要任務(wù)是隨機(jī)的去除掉某個(gè)單詞,使用上下文將其預(yù)測(cè)出來(lái)(相當(dāng)于完形填空任務(wù)); GPT的主要任務(wù)是根據(jù)前面一句話,預(yù)測(cè)下面的內(nèi)容; GLM結(jié)合了bert的強(qiáng)大雙向注意力與gpt的強(qiáng)大生成能力兩種能力,被nask的地方使用單向注意力,未被mask的地方使用雙向注意力 預(yù)測(cè)

    2024年02月09日
    瀏覽(22)
  • 【自然語(yǔ)言處理】:實(shí)驗(yàn)4答案,預(yù)訓(xùn)練語(yǔ)言模型實(shí)現(xiàn)與應(yīng)用

    【自然語(yǔ)言處理】:實(shí)驗(yàn)4答案,預(yù)訓(xùn)練語(yǔ)言模型實(shí)現(xiàn)與應(yīng)用

    代碼和報(bào)告均為本人自己實(shí)現(xiàn)(實(shí)驗(yàn)滿分),只展示主要任務(wù)實(shí)驗(yàn)結(jié)果,如果需要詳細(xì)的實(shí)驗(yàn)報(bào)告或者代碼可以私聊博主,接實(shí)驗(yàn)技術(shù)指導(dǎo)1對(duì)1 運(yùn)行模型,測(cè)試模型在有 100% / 50% / 10% training data(通過(guò)隨機(jī) sample 原 training set 一部分的數(shù)據(jù),10%代表低資源的設(shè)定)的情況下模型

    2024年02月22日
    瀏覽(90)
  • 【自然語(yǔ)言處理】:實(shí)驗(yàn)4布置,預(yù)訓(xùn)練語(yǔ)言模型實(shí)現(xiàn)與應(yīng)用

    【自然語(yǔ)言處理】:實(shí)驗(yàn)4布置,預(yù)訓(xùn)練語(yǔ)言模型實(shí)現(xiàn)與應(yīng)用

    清華大學(xué)馭風(fēng)計(jì)劃 因?yàn)槠驅(qū)嶒?yàn)答案分開(kāi)上傳,自然語(yǔ)言處理專欄持續(xù)更新中,期待的小伙伴敬請(qǐng)關(guān)注 有任何疑問(wèn)或者問(wèn)題,也歡迎私信博主,大家可以相互討論交流喲~~ 案例簡(jiǎn)介 ?2018年,Google提出了預(yù)訓(xùn)練語(yǔ)言模型BERT,該模型在各種NLP任務(wù)上都取得了很好的效果。與

    2024年02月19日
    瀏覽(102)
  • 自然語(yǔ)言處理 Paddle NLP - 預(yù)訓(xùn)練語(yǔ)言模型及應(yīng)用

    自然語(yǔ)言處理 Paddle NLP - 預(yù)訓(xùn)練語(yǔ)言模型及應(yīng)用

    基礎(chǔ) 自然語(yǔ)言處理(NLP) 自然語(yǔ)言處理PaddleNLP-詞向量應(yīng)用展示 自然語(yǔ)言處理(NLP)-前預(yù)訓(xùn)練時(shí)代的自監(jiān)督學(xué)習(xí) 自然語(yǔ)言處理PaddleNLP-預(yù)訓(xùn)練語(yǔ)言模型及應(yīng)用 自然語(yǔ)言處理PaddleNLP-文本語(yǔ)義相似度計(jì)算(ERNIE-Gram) 自然語(yǔ)言處理PaddleNLP-詞法分析技術(shù)及其應(yīng)用 自然語(yǔ)言處理Pa

    2024年02月08日
    瀏覽(30)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包