国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

使用思維鏈(Chain-of-thoughts)提示在大型語(yǔ)言模型中引出推理

這篇具有很好參考價(jià)值的文章主要介紹了使用思維鏈(Chain-of-thoughts)提示在大型語(yǔ)言模型中引出推理。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

語(yǔ)言模型(LM)在NLP領(lǐng)域的發(fā)展速度非常快,特別是在大型語(yǔ)言模型(LLM)方面:當(dāng)語(yǔ)言模型具有大量參數(shù)或權(quán)重/系數(shù)時(shí),它們被稱(chēng)為“大型”。這些“大型”語(yǔ)言模型擁有處理和理解大量自然語(yǔ)言數(shù)據(jù)的能力。

LLM被用于一系列自然語(yǔ)言任務(wù),如文本摘要、情感分析、主題分類(lèi)、語(yǔ)言翻譯、自動(dòng)完成等。擴(kuò)展LM的一些廣泛的好處包括提高性能、泛化和效率,雖然這些模型執(zhí)行的大多數(shù)任務(wù)都受益于擴(kuò)展,但像算術(shù)、常識(shí)和符號(hào)推理這樣的任務(wù)在擴(kuò)展模型時(shí)沒(méi)有看到性能的提高。

使用思維鏈(Chain-of-thoughts)提示在大型語(yǔ)言模型中引出推理

這就引出了“思維鏈提示”的方法,通過(guò)生成一系列中間推理步驟或思維鏈來(lái)提高法LLM 的復(fù)雜推理能力。這種方法基于兩個(gè)想法:1、考慮到LM可以被訓(xùn)練來(lái)生成自然語(yǔ)言的中間步驟,增加自然語(yǔ)言的基本原理可能是一個(gè)額外的好處;2、當(dāng)通過(guò)上下文少樣本方法提示時(shí),LLM在問(wèn)答任務(wù)中取得了顯著的成功。但在實(shí)踐中,為訓(xùn)練訓(xùn)創(chuàng)造大量的理由是費(fèi)時(shí)費(fèi)力的。所以將這兩種思想結(jié)合起來(lái),就產(chǎn)生了一個(gè)模型,只要有幾個(gè)由<input, chain-of-though, output>三元組組成的提示,模型的性能會(huì)得到改善。

思維鏈提示

思維鏈?zhǔn)墙鉀Q推理任務(wù)時(shí)人類(lèi)思維過(guò)程遵循的一系列典型步驟。它可以幫助我們將一個(gè)問(wèn)題分解成一系列的子問(wèn)題,然后逐個(gè)解決這些子問(wèn)題,從而得出最終的答案。在大型語(yǔ)言模型中,思維鏈可以用來(lái)引出推理。思路鏈方法帶來(lái)以下好處:

  • 由于問(wèn)題可以分為多個(gè)步驟,因此可以將額外的計(jì)算分配給復(fù)雜的問(wèn)題
  • 推理路徑提供了一個(gè)調(diào)試模型可能出錯(cuò)的窗口
  • 任何一般的 LLM 都可以通過(guò)提供思維鏈提示來(lái)為復(fù)雜的推理任務(wù)做準(zhǔn)備

數(shù)學(xué)推理

使用思維鏈(Chain-of-thoughts)提示在大型語(yǔ)言模型中引出推理

上圖顯示了 LLMs 在數(shù)學(xué)單詞問(wèn)題上使用思維鏈提示的表現(xiàn)結(jié)果。y 軸是結(jié)果表現(xiàn),x 軸上是模型大小的比例。

  • 只有在足夠大的模型中才能看到思維鏈提示為 LLM 帶來(lái)的好處。因此大型模型是必要的,但還不夠
  • 對(duì)于更復(fù)雜的推理問(wèn)題,性能的提高更大。鑒于 GSM8K 與 MAWPS 中問(wèn)題的復(fù)雜性降低,GSM8K 中的性能增益對(duì)于大型模型幾乎翻了一番
  • 大型 GPT 和 PaLM 模型中的思維鏈提示的性能與之前的 SOTA 方法相當(dāng),其中包括在標(biāo)記的訓(xùn)練數(shù)據(jù)集上微調(diào)模型
  • 除了上述幾點(diǎn)外,對(duì) PaLM 62B 錯(cuò)誤的分析表明,當(dāng)模型縮放到 540B 時(shí),很大一部分的缺失和語(yǔ)義理解都得到了修復(fù),這進(jìn)一步強(qiáng)化了通過(guò)思維鏈提示提高LLM推理能力需要大模型的觀點(diǎn)

消融實(shí)驗(yàn)

性能改進(jìn)將根據(jù)三種不同的思維鏈提示進(jìn)行評(píng)估

僅限方程:系統(tǒng)提示模型僅在響應(yīng)數(shù)學(xué)應(yīng)用題時(shí)輸出方程式。這些模型在 GSM8K 上的這個(gè)提示上表現(xiàn)不佳,這表明在沒(méi)有給出思維鏈中的步驟的情況下,這些問(wèn)題的語(yǔ)義對(duì)于模型來(lái)說(shuō)太具有挑戰(zhàn)性,無(wú)法為它們輸出方程。

僅進(jìn)行變量計(jì)算:這種變化背后的思想是模型在復(fù)雜問(wèn)題的計(jì)算上花費(fèi)(令牌)更多。在分離提示時(shí),提示的中間步驟是有用的。

回答后的思維鏈:這種變化測(cè)試思維鏈?zhǔn)欠裰皇亲屇P驮L問(wèn)預(yù)訓(xùn)練知識(shí)。給出答案后產(chǎn)生思維鏈的提示,其表現(xiàn)與基線相同,這表明在思維鏈的中間步驟中可用的推理比激活知識(shí)更必要。

使用思維鏈(Chain-of-thoughts)提示在大型語(yǔ)言模型中引出推理

穩(wěn)健性研究

評(píng)估從GSM8K訓(xùn)練集到LaMDA 137B的不同注釋和示例給出的思維鏈提示的穩(wěn)健性時(shí),所有這些思維鏈提示的變體都大大優(yōu)于標(biāo)準(zhǔn)提示。

使用思維鏈(Chain-of-thoughts)提示在大型語(yǔ)言模型中引出推理

除算術(shù)推理外,還對(duì)模型進(jìn)行了常識(shí)性和符號(hào)推理評(píng)價(jià)

常識(shí)推理

雖然PaLM模型在CSQA上的性能提升很小,但它在StrategyQA上的表現(xiàn)超過(guò)了之前的SOTA,對(duì)于運(yùn)動(dòng)理解上也超過(guò)了一個(gè)獨(dú)立的人類(lèi)運(yùn)動(dòng)愛(ài)好者。

使用思維鏈(Chain-of-thoughts)提示在大型語(yǔ)言模型中引出推理

符號(hào)推理

下圖顯示了PaLM模型在域內(nèi)(示例和測(cè)試中的步驟數(shù)相同)和域外/OOD(測(cè)試中的步驟多于示例)上的評(píng)估結(jié)果。盡管對(duì)于域內(nèi)測(cè)試,已經(jīng)在思維鏈中提供了完美的解決方案結(jié)構(gòu),但小型模型表現(xiàn)不佳。

使用思維鏈(Chain-of-thoughts)提示在大型語(yǔ)言模型中引出推理

總結(jié)

雖然思維鏈提示假設(shè)建立在人類(lèi)推理過(guò)程的基礎(chǔ)上,但神經(jīng)網(wǎng)絡(luò)是否“推理”的問(wèn)題仍然沒(méi)有答案。在調(diào)優(yōu)的情況下,手動(dòng)提供示例的成本可能非常高,因?yàn)榇诉^(guò)程將需要更多的示例。雖然使用示例的模型遵循“正確”推理路徑的可能性很高,但不能保證這一點(diǎn)。為了實(shí)現(xiàn)思維鏈推理能力,模型必須“大”,這一先決條件使得它在實(shí)際應(yīng)用中的使用代價(jià)高昂。

這篇論文的研究表明,思維鏈提示提高了模型在算術(shù)、常識(shí)和符號(hào)推理任務(wù)上的性能,但擴(kuò)大模型可以執(zhí)行的任務(wù)范圍和降低這些模型改進(jìn)推理的尺度閾值是潛在的廣泛研究領(lǐng)域。

論文地址:https://avoid.overfit.cn/post/f281ad2e54614d029c8061cc693376ed

介紹這篇論文的另外一個(gè)原因是可以使用思維鏈提高ChatGPT的結(jié)果,因?yàn)樗季S鏈?zhǔn)且环N逐步分解問(wèn)題、逐步推理的思考方法,可以引導(dǎo)模型生成更準(zhǔn)確、更有邏輯性的答案。

  1. 對(duì)問(wèn)題進(jìn)行分解:將一個(gè)大問(wèn)題分解成多個(gè)小問(wèn)題,逐個(gè)解決。這樣可以使模型更好地理解問(wèn)題的結(jié)構(gòu),提高問(wèn)題的細(xì)節(jié)處理能力。
  2. 比較和對(duì)比:將多個(gè)對(duì)象進(jìn)行比較和對(duì)比,找出它們之間的共同點(diǎn)和不同點(diǎn)。這樣可以使模型更好地理解對(duì)象之間的關(guān)系,提高其分類(lèi)和判斷能力。
  3. 推理和預(yù)測(cè):根據(jù)已知的信息,推斷可能的結(jié)果。這樣可以使模型更好地處理復(fù)雜的問(wèn)題,提高其推理和預(yù)測(cè)能力。
  4. 歸納和演繹:從具體情況中推導(dǎo)出一般規(guī)律,或者從一般規(guī)律中推導(dǎo)出具體情況。這樣可以使模型更好地理解問(wèn)題的本質(zhì)和規(guī)律,提高其概括和推廣能力。
  5. 假設(shè)實(shí)驗(yàn):通過(guò)模擬實(shí)驗(yàn)來(lái)推斷事物的本質(zhì)或規(guī)律。這樣可以使模型更好地理解事物的屬性和行為,提高其推斷和預(yù)測(cè)能力。

通過(guò)使用思維鏈的方法,可以幫助ChatGPT更好地理解問(wèn)題,提高其推理、預(yù)測(cè)、分類(lèi)和判斷能力。在輸入問(wèn)題時(shí),可以嘗試將問(wèn)題分解成多個(gè)子問(wèn)題,然后逐個(gè)解決;在生成回答時(shí),可以嘗試進(jìn)行比較和對(duì)比、推理和預(yù)測(cè)、歸納和演繹等操作,從而生成更準(zhǔn)確、更有邏輯性的答案。所以無(wú)論你看不看這篇論文,它的思路對(duì)我們來(lái)說(shuō)是非常重要的。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-448179.html

到了這里,關(guān)于使用思維鏈(Chain-of-thoughts)提示在大型語(yǔ)言模型中引出推理的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶(hù)投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • (論文閱讀)Chain-of-Thought Prompting Elicits Reasoningin Large Language Models

    (論文閱讀)Chain-of-Thought Prompting Elicits Reasoningin Large Language Models

    論文地址 https://openreview.net/pdf?id=_VjQlMeSB_J ????????我們探索如何生成一個(gè)思維鏈——一系列中間推理步驟——如何顯著提高大型語(yǔ)言模型執(zhí)行復(fù)雜推理的能力。 特別是,我們展示了這種推理能力如何通過(guò)一種稱(chēng)為思維鏈提示的簡(jiǎn)單方法自然地出現(xiàn)在足夠大的語(yǔ)言模型中,

    2024年02月07日
    瀏覽(23)
  • (論文閱讀)Chain-of-Thought Prompting Elicits Reasoning in Large Language Models

    (論文閱讀)Chain-of-Thought Prompting Elicits Reasoning in Large Language Models

    論文地址 https://openreview.net/pdf?id=_VjQlMeSB_J ????????我們探索如何生成一個(gè)思維鏈——一系列中間推理步驟——如何顯著提高大型語(yǔ)言模型執(zhí)行復(fù)雜推理的能力。 特別是,我們展示了這種推理能力如何通過(guò)一種稱(chēng)為思維鏈提示的簡(jiǎn)單方法自然地出現(xiàn)在足夠大的語(yǔ)言模型中,

    2024年02月08日
    瀏覽(38)
  • 《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》全文翻譯

    《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》全文翻譯

    題目:《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》 作者:Jason Wei and et al. 會(huì)議: NeurlPS 2022 內(nèi)容概述:論文探索如何生成一個(gè)思想鏈(一系列中間推理步驟)來(lái)顯著提高大型語(yǔ)言模型執(zhí)行復(fù)雜推理的能力。 我們探索生成一條思維鏈(一系列中間推理步驟)如何顯

    2024年02月09日
    瀏覽(17)
  • 文獻(xiàn)閱讀:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models

    文獻(xiàn)閱讀:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models

    文獻(xiàn)閱讀:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models 1. 文章簡(jiǎn)介 2. 具體方法 3. 實(shí)驗(yàn)結(jié)果 1. 數(shù)學(xué)推理 1. 實(shí)驗(yàn)設(shè)計(jì) 2. 實(shí)驗(yàn)結(jié)果 3. 消解實(shí)驗(yàn) 4. 魯棒性考察 2. 常識(shí)推理 1. 實(shí)驗(yàn)設(shè)計(jì) 2. 實(shí)驗(yàn)結(jié)果 3. 符號(hào)推理 1. 實(shí)驗(yàn)設(shè)計(jì) 2. 實(shí)驗(yàn)結(jié)果 4. 結(jié)論 思考 文獻(xiàn)鏈接:https://arxiv.or

    2024年02月10日
    瀏覽(42)
  • Graph of Thoughts: Solving Elaborate Problems with Large Language Models

    本文是LLM系列文章,針對(duì)《Graph of Thoughts: Solving Elaborate Problems with Large Language Models》的翻譯。 我們介紹了思維圖(GoT):這是一個(gè)框架,它將大型語(yǔ)言模型(LLM)中的提示能力提升到思維鏈或思維樹(shù)(ToT)等范式之外。GoT的關(guān)鍵思想和主要優(yōu)勢(shì)是能夠?qū)LM生成的信息建模為任

    2024年02月11日
    瀏覽(17)
  • Tree of Thoughts: Deliberate Problem Solving with Large Language Models

    本文是LLM系列的文章,針對(duì)《Tree of Thoughts: Deliberate Problem Solving with Large Language Models》的翻譯。 語(yǔ)言模型越來(lái)越多地被部署用于解決各種任務(wù)中的一般問(wèn)題,但在推理過(guò)程中仍然局限于token級(jí)別的從左到右的決策過(guò)程。這意味著他們可能無(wú)法完成需要探索、戰(zhàn)略前瞻或初始決

    2024年02月11日
    瀏覽(20)
  • 【閱讀筆記】Graph of Thoughts: Solving Elaborate Problems with Large Language Models

    【閱讀筆記】Graph of Thoughts: Solving Elaborate Problems with Large Language Models

    Website code: https://github.com/spcl/graph-of-thoughts 作者介紹了Graph of Thought (GoT):一個(gè)具備提高LLM提示能力,超越了思維鏈或思維樹(shù) (ToT) 等范式提供的能力的框架。GoT的關(guān)鍵思想和主要優(yōu)勢(shì)是能夠?qū)LM生成的信息建模為任意圖,其中信息單位(“LLM思想”)是頂點(diǎn),而邊對(duì)應(yīng)于這些頂

    2024年02月10日
    瀏覽(38)
  • 思維鏈Prompting促進(jìn)大型語(yǔ)言模型的推理能力

    思維鏈Prompting促進(jìn)大型語(yǔ)言模型的推理能力

    論文標(biāo)題:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models 論文鏈接:https://arxiv.org/abs/2201.11903 論文來(lái)源:NeurIPS 2022 近來(lái)NLP領(lǐng)域由于語(yǔ)言模型的發(fā)展取得了顛覆性的進(jìn)展,擴(kuò)大語(yǔ)言模型的規(guī)模帶來(lái)了一系列的性能提升,然而單單是擴(kuò)大模型規(guī)模對(duì)于一些具有挑戰(zhàn)性的任

    2024年02月01日
    瀏覽(23)
  • 責(zé)任鏈模式(Chain of Responsibility)

    責(zé)任鏈模式(Chain of Responsibility)

    命令鏈(Chain of Command)。 責(zé)任鏈?zhǔn)且环N行為設(shè)計(jì)模式 , 允許你將請(qǐng)求沿著處理者鏈進(jìn)行發(fā)送。收到請(qǐng)求后,每個(gè)處理者均可對(duì)請(qǐng)求進(jìn)行處理,或?qū)⑵鋫鬟f給鏈上的下個(gè)處理者 。 1. 問(wèn)題 假如你正在開(kāi)發(fā)一個(gè)在線訂購(gòu)系統(tǒng)。你希望對(duì)系統(tǒng)訪問(wèn)進(jìn)行限制, 只允許認(rèn)證用戶(hù)創(chuàng)建

    2024年02月11日
    瀏覽(24)
  • 責(zé)任鏈模式(Chain of Responsibility)

    責(zé)任鏈模式是對(duì)象的行為模式。使多個(gè)對(duì)象都有機(jī)會(huì)處理請(qǐng)求,從而避免請(qǐng)求的發(fā)送者和接受者直接的耦合關(guān)系。

    2024年02月05日
    瀏覽(29)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包