国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

解密prompt系列26. 人類(lèi)思考vs模型思考:抽象和發(fā)散思維

這篇具有很好參考價(jià)值的文章主要介紹了解密prompt系列26. 人類(lèi)思考vs模型思考:抽象和發(fā)散思維。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

在Chain of Thought出來(lái)后,出現(xiàn)過(guò)許多的優(yōu)化方案例如Tree of thought, Graph of Thought, Algorithm of Thought等等,不過(guò)這些優(yōu)化的出發(fā)點(diǎn)都更加"Machine Like",而非"Human Like", 哈哈不是說(shuō)機(jī)器化不好,僅僅是對(duì)AGI的一些個(gè)人偏好而已。

所以如果我們從人類(lèi)思考的角度出發(fā),能否把當(dāng)前模型的思考方式和人類(lèi)的思考方式進(jìn)行關(guān)聯(lián)呢? 我先問(wèn)了下PPLX-70B人類(lèi)思維有哪些分類(lèi)(這個(gè)問(wèn)題RAG真的不如模型壓縮后回答的效果)

解密prompt系列26. 人類(lèi)思考vs模型思考:抽象和發(fā)散思維

我們?cè)侔阎耙呀?jīng)聊過(guò)的一些引導(dǎo)模型推理思考的prompt模板,以及工具調(diào)用的一些prompt方案和上面的人類(lèi)思維邏輯進(jìn)行下不完全的類(lèi)比:

Prompt策略 類(lèi)比人類(lèi)思維
Chain of Thought 邏輯思維中的演繹推理
Few Shot Prompt 類(lèi)比思維
SELF-REFINE,Relfection 自省思維
ReAct,SelfAsk 后續(xù)性思維(線(xiàn)性思維?)
情感思維 哈哈夸夸模型會(huì)更好

和上面的人類(lèi)思維模式相比,似乎還少了抽象思維和發(fā)散思維,這一章我們就聊聊這兩種思考方式如何通過(guò)prompt來(lái)引導(dǎo)。

抽象思維: Step Back Prompt

  • Take a Step Back: Evoking Reasoning via Abstraction in Large Language Models
  • LARGE LANGUAGE MODELS CAN LEARN RULES

DeepMind提出的新Prompt方式,在思維鏈之前加了一步抽象(后退一步思考)。通過(guò)把原始問(wèn)題抽象成更高層次的概括性、概念性問(wèn)題,降低原始問(wèn)題中的細(xì)節(jié)對(duì)推理的影響,如下

解密prompt系列26. 人類(lèi)思考vs模型思考:抽象和發(fā)散思維

在RAG場(chǎng)景里,這類(lèi)prompt策略很適合解決用戶(hù)query過(guò)于細(xì)節(jié),導(dǎo)致召回效果不佳的問(wèn)題。用戶(hù)在大模型場(chǎng)景的提問(wèn)往往比在搜索框中的提問(wèn)更加具體,包含更多條件和細(xì)節(jié),舉個(gè)例子query = “哪些國(guó)家在經(jīng)濟(jì)陷入低谷時(shí),因?yàn)橥ㄘ浥蛎泧?yán)重,而不得不加息“,如果直接對(duì)以上query進(jìn)行改寫(xiě),Decompose拆分,會(huì)發(fā)現(xiàn)都無(wú)法召回有效的內(nèi)容,因?yàn)閱?wèn)題本身粒度已經(jīng)太細(xì)了,這時(shí)不需要進(jìn)一步拆分,相反需要更高層次的總結(jié)和抽象。我們只需要把問(wèn)題修改成“哪些國(guó)家發(fā)生過(guò)被動(dòng)加息”,這類(lèi)更高層次的抽象概念,召回效果立刻起飛。

StepBack推理和COT推理相同,都是通過(guò)few-shot prompt來(lái)引導(dǎo)模型進(jìn)行后退思考。
論文對(duì)三個(gè)不同領(lǐng)域的任務(wù)進(jìn)行了評(píng)估,分別是STEM領(lǐng)域的推理任務(wù),知識(shí)密集的QA任務(wù),和multi-hop推理任務(wù)。其中前者和后兩者的prompt模板存在差異,前者是讓模型先抽象理論概念,后兩者是更通用的提出stepback問(wèn)題,個(gè)人感覺(jué)是歸納推理從特殊到一般的推理抽象過(guò)程在不同領(lǐng)域的差異性

STEM推理的few-shot prompt模板如下

解密prompt系列26. 人類(lèi)思考vs模型思考:抽象和發(fā)散思維

知識(shí)密集的QA任務(wù)和multi-hop推理任務(wù)都是使用的以下few-shot prompt模板

解密prompt系列26. 人類(lèi)思考vs模型思考:抽象和發(fā)散思維

測(cè)試下了step back prompt中few-shot才是核心,因?yàn)樵诓煌I(lǐng)域中歸納推理的思維是不同的,有需要對(duì)概念進(jìn)行抽象,有需要對(duì)不同時(shí)間,實(shí)體進(jìn)行抽象,有需要對(duì)條件進(jìn)行放寬,以下是論文中在QA場(chǎng)景使用的一些few-shot案例

解密prompt系列26. 人類(lèi)思考vs模型思考:抽象和發(fā)散思維

效果上在PaML-2的模型上進(jìn)行試驗(yàn),各個(gè)任務(wù)上step-back都能相比COT有進(jìn)一步的顯著提升,在多數(shù)任務(wù)上stepback + RAG都能超越GPT-4的效果。并且prompt效果和few-shot的個(gè)數(shù)無(wú)關(guān),1-shot的效果就很好。

解密prompt系列26. 人類(lèi)思考vs模型思考:抽象和發(fā)散思維

不過(guò)在我們的場(chǎng)景中測(cè)試,論文中提到的幾個(gè)stepback的問(wèn)題其實(shí)一定程度上被放大了,導(dǎo)致當(dāng)前看效果比較一般,主要有以下幾個(gè)問(wèn)題

  1. Context Loss:在抽象問(wèn)題的過(guò)程中,模型丟掉了核心的條件,導(dǎo)致問(wèn)題丟失了核心信息,后面的RAG也隨之錯(cuò)誤
  2. Abstraction Error: 在垂直領(lǐng)域,模型的歸納推理效果有限,往往在第一步定位principle、concept就存在錯(cuò)誤
  3. Timing:Step Back Prompt和Decompose其實(shí)是相對(duì)對(duì)立的關(guān)系,各自適合解決一部分問(wèn)題,在RAG場(chǎng)景中Decompose更適合粗粒度Query,Step Back適合細(xì)粒度Query,但想讓模型自己決策不同的思考方式難度有點(diǎn)高哦

另一篇論文Large Language Models can Learn Rule思路也有些類(lèi)似,也是先歸納推理再演繹推理,通過(guò)把抽象出的通用知識(shí)注入prompt,用來(lái)幫助下游推理。這里就不細(xì)說(shuō)了~

發(fā)散思維:Diversity of Thought

  • Diversity of Thought Improves Reasoning Abilities of Large Language Models

發(fā)散思維簡(jiǎn)單說(shuō)就是“一題多解“,“一物多用”, 其實(shí)在Self-Consistency這類(lèi)Ensemble方案中就出現(xiàn)過(guò)。Self-Consistency通過(guò)讓模型隨機(jī)生成多個(gè)推理,從中Major Vote出概率最高的答案,更像是發(fā)散思維的對(duì)立收斂思維,重心放在從四面八方的各種嘗試中抽象問(wèn)題的核心。

Self-Consistency的重心放在收斂,而Diversity of Thought的重心放在發(fā)散。這里論文提出了兩個(gè)可以發(fā)散模型思維的prompt方式

  • Approaches:以XX方式思考,例如數(shù)學(xué)問(wèn)題可以讓模型直接計(jì)算,化簡(jiǎn)計(jì)算,可視化,逆推等等
  • Persona:像誰(shuí)誰(shuí)一樣思考,例如金融問(wèn)題可以像Buffett一樣思考,數(shù)學(xué)問(wèn)題像Turing一樣思考,其實(shí)每個(gè)名人背后也是相關(guān)思維思維方式的一種抽象,例如沃倫巴菲特代表是價(jià)值投資。莫名出現(xiàn)了拘靈遣將的即視感......

基于以上的多個(gè)發(fā)散維度,論文給出了兩種prompt構(gòu)建的方案

  • 多個(gè)approach拼成一個(gè)one-shot讓模型推理一次給出多個(gè)不同的結(jié)果
  • 1個(gè)approach作為one-shot讓模型推理多次

分別對(duì)應(yīng)以下兩種prompt

解密prompt系列26. 人類(lèi)思考vs模型思考:抽象和發(fā)散思維

解密prompt系列26. 人類(lèi)思考vs模型思考:抽象和發(fā)散思維

那如何得到上面的這些approach呢?這里論文也采用了大模型自動(dòng)構(gòu)建的方案,在某一類(lèi)問(wèn)題中隨機(jī)采樣query,使用以下prompt讓模型生成回答該問(wèn)題可以使用的方案,最后每個(gè)領(lǐng)域選擇出現(xiàn)頻率最大的TopN個(gè)Approach用來(lái)構(gòu)建prompt。挖掘approach的prompt如下

解密prompt系列26. 人類(lèi)思考vs模型思考:抽象和發(fā)散思維

效果上,使用發(fā)散思維和COT進(jìn)行配合,在GSM8K,AQUA等推理任務(wù),CommenseQA等常識(shí)任務(wù),和BlocksWorld等規(guī)劃任務(wù)上均有顯著提升。并且和Self-Consistency的結(jié)論相似,以上發(fā)散思維的Ensemble數(shù)量更多,效果越好。

解密prompt系列26. 人類(lèi)思考vs模型思考:抽象和發(fā)散思維

整體上以上的兩種思維邏輯都還相對(duì)初步,對(duì)比已經(jīng)比較成熟的演繹推理的COT還有再進(jìn)一步探索的空間,以及如何在不同場(chǎng)景下讓模型選擇不同的思維模式,進(jìn)行思考,并最終收斂到正確的結(jié)果也值得再進(jìn)行嘗試。

想看更全的大模型相關(guān)論文梳理·微調(diào)及預(yù)訓(xùn)練數(shù)據(jù)和框架·AIGC應(yīng)用,移步Github >> DecryPrompt文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-838206.html

到了這里,關(guān)于解密prompt系列26. 人類(lèi)思考vs模型思考:抽象和發(fā)散思維的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶(hù)投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 解密prompt系列27. LLM對(duì)齊經(jīng)驗(yàn)之如何降低通用能力損失

    解密prompt系列27. LLM對(duì)齊經(jīng)驗(yàn)之如何降低通用能力損失

    前面我們已經(jīng)聊過(guò)眾多指令微調(diào)的方案,這一章我們重點(diǎn)討論下如何注入某一類(lèi)任務(wù)或能力的同時(shí),盡可能不損失模型原有的通用指令理解能力。因?yàn)樵谙掠位虼怪鳖I(lǐng)域應(yīng)用中,我們?cè)O(shè)計(jì)的推理任務(wù)風(fēng)格或形式,往往很難通過(guò)prompt來(lái)穩(wěn)定實(shí)現(xiàn)。這種情況下就會(huì)依賴(lài)微調(diào)來(lái)注入

    2024年04月13日
    瀏覽(27)
  • 解密prompt系列25. RLHF改良方案之樣本標(biāo)注:RLAIF & SALMON

    解密prompt系列25. RLHF改良方案之樣本標(biāo)注:RLAIF & SALMON

    上一章我們主要嘮了RLHF訓(xùn)練相關(guān)的方案,這一章我們主要針對(duì)RLHF的樣本構(gòu)建階段,引入機(jī)器標(biāo)注來(lái)降低人工標(biāo)注的成本。主要介紹兩個(gè)方案:RLAIF,和IBM的SALMON。 RLAIF: Scaling Reinforcement Learning from Human Feedback with AI Feedback RLAIF給出的方案是完全使用大模型來(lái)進(jìn)行偏好樣本的標(biāo)注

    2024年03月25日
    瀏覽(22)
  • 解密Prompt系列18. LLM Agent之只有智能體的世界

    解密Prompt系列18. LLM Agent之只有智能體的世界

    重新回來(lái)聊Agent,前四章的LLM Agent,不論是和數(shù)據(jù)庫(kù)和模型還是和搜索引擎交互,更多還是大模型和人之間的交互。這一章我們來(lái)嘮嘮只有大模型智能體的世界!分別介紹斯坦福小鎮(zhèn)和Chatdev兩篇論文。它們的共同特點(diǎn)是使用多個(gè)大模型智能體協(xié)同完成任務(wù)。 多智能相比單一智

    2024年02月08日
    瀏覽(19)
  • 解密Prompt系列13. LLM Agent-指令微調(diào)方案: Toolformer & Gorilla

    解密Prompt系列13. LLM Agent-指令微調(diào)方案: Toolformer & Gorilla

    上一章我們介紹了基于Prompt范式的工具調(diào)用方案,這一章介紹基于模型微調(diào),支持任意多工具組合調(diào)用,復(fù)雜調(diào)用的方案。多工具調(diào)用核心需要解決3個(gè)問(wèn)題,在哪個(gè)位置進(jìn)行工具調(diào)用(where), 從眾多工具中選擇哪一個(gè)(Which), 工具的輸入是什么(What)。Where + Which + What,我稱(chēng)之為

    2024年02月12日
    瀏覽(15)
  • COT、COT-SC、TOT 大預(yù)言模型思考方式||底層邏輯:prompt設(shè)定

    COT、COT-SC、TOT 大預(yù)言模型思考方式||底層邏輯:prompt設(shè)定

    先講一下具體縮寫(xiě)的意思? COT-chain of thoughts COT-SC (Self-consistency) Tree of thoughts:Deliberate problem solving with LLM ? ? 我理解其實(shí)不復(fù)雜 1. 最簡(jiǎn)單的是:直接大白話(huà)問(wèn)一次 (IO) 2. 進(jìn)階一點(diǎn)是:思維鏈,讓一步步思考(CoT) 3. 再進(jìn)一步是:思維鏈問(wèn)多次,出結(jié)果后選舉——少數(shù)服從

    2024年02月15日
    瀏覽(23)
  • 解密prompt系列5. APE+SELF=自動(dòng)化指令集構(gòu)建代碼實(shí)現(xiàn)

    解密prompt系列5. APE+SELF=自動(dòng)化指令集構(gòu)建代碼實(shí)現(xiàn)

    上一章我們介紹了不同的指令微調(diào)方案, 這一章我們介紹如何降低指令數(shù)據(jù)集的人工標(biāo)注成本!這樣每個(gè)人都可以構(gòu)建自己的專(zhuān)屬指令集, 哈哈當(dāng)然我也在造數(shù)據(jù)集進(jìn)行時(shí)~ 介紹兩種方案SELF Instruct和Automatic Prompt Engineer,前者是基于多樣的種子指令,利用大模型的上下文和指令

    2023年04月10日
    瀏覽(26)
  • 解密Prompt系列6. lora指令微調(diào)扣細(xì)節(jié)-請(qǐng)冷靜,1個(gè)小時(shí)真不夠~

    解密Prompt系列6. lora指令微調(diào)扣細(xì)節(jié)-請(qǐng)冷靜,1個(gè)小時(shí)真不夠~

    上一章介紹了如何基于APE+SELF自動(dòng)化構(gòu)建指令微調(diào)樣本。這一章咱就把微調(diào)跑起來(lái),主要介紹以L(fǎng)ora為首的低參數(shù)微調(diào)原理,環(huán)境配置,微調(diào)代碼,以及大模型訓(xùn)練中顯存和耗時(shí)優(yōu)化的相關(guān)技術(shù)細(xì)節(jié) 標(biāo)題這樣寫(xiě)是因?yàn)樯现芡蝗皇盏搅艘恢軆?nèi)上線(xiàn)一版chatbo的命令,原因無(wú)它領(lǐng)導(dǎo)們

    2024年02月01日
    瀏覽(25)
  • 解密Prompt系列12. LLM Agent零微調(diào)范式 ReAct & Self Ask

    解密Prompt系列12. LLM Agent零微調(diào)范式 ReAct & Self Ask

    前三章我們分別介紹了思維鏈的使用,原理和在小模型上的使用。這一章我們正式進(jìn)入應(yīng)用層面,聊聊如何把思維鏈和工具使用結(jié)合得到人工智能代理。 要回答我們?yōu)槭裁葱枰狝I代理?代理可以解決哪些問(wèn)題?可以有以下兩個(gè)視角 首先是我們賦能模型,如果說(shuō) LLM是大腦,那

    2024年02月15日
    瀏覽(15)
  • 解密Prompt系列14. LLM Agent之搜索應(yīng)用設(shè)計(jì):WebGPT & WebGLM & WebCPM

    解密Prompt系列14. LLM Agent之搜索應(yīng)用設(shè)計(jì):WebGPT & WebGLM & WebCPM

    前兩章,我們分別介紹了基于微調(diào)和prompt的工具調(diào)用方案,核心都是如何讓大模型和工具進(jìn)行交互,包括生成工具調(diào)用語(yǔ)句和處理工具調(diào)用請(qǐng)求。不過(guò)在實(shí)際應(yīng)用中,想要設(shè)計(jì)一個(gè)可以落地的LLM Agent,需要更全面整體的系統(tǒng)設(shè)計(jì)。本章我們以搜索工具為例,介紹如何更好和搜

    2024年02月10日
    瀏覽(22)
  • 解密Prompt系列20. LLM Agent之再談RAG的召回多樣性?xún)?yōu)化

    解密Prompt系列20. LLM Agent之再談RAG的召回多樣性?xún)?yōu)化

    幾個(gè)月前我們就聊過(guò)RAG的經(jīng)典方案解密Prompt系列14. LLM Agent之搜索應(yīng)用設(shè)計(jì)。前幾天剛看完openAI在DevDay閉門(mén)會(huì)議上介紹的RAG相關(guān)的經(jīng)驗(yàn),有些新的感悟,借此機(jī)會(huì)再梳理下RAG相關(guān)的優(yōu)化方案。推薦直接看原視頻(外網(wǎng))A Survey of Techniques for Maximizing LLM Performance RAG最關(guān)鍵的一環(huán)其

    2024年02月05日
    瀏覽(23)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包