在Chain of Thought出來(lái)后,出現(xiàn)過(guò)許多的優(yōu)化方案例如Tree of thought, Graph of Thought, Algorithm of Thought等等,不過(guò)這些優(yōu)化的出發(fā)點(diǎn)都更加"Machine Like",而非"Human Like", 哈哈不是說(shuō)機(jī)器化不好,僅僅是對(duì)AGI的一些個(gè)人偏好而已。
所以如果我們從人類(lèi)思考的角度出發(fā),能否把當(dāng)前模型的思考方式和人類(lèi)的思考方式進(jìn)行關(guān)聯(lián)呢? 我先問(wèn)了下PPLX-70B人類(lèi)思維有哪些分類(lèi)(這個(gè)問(wèn)題RAG真的不如模型壓縮后回答的效果)
我們?cè)侔阎耙呀?jīng)聊過(guò)的一些引導(dǎo)模型推理思考的prompt模板,以及工具調(diào)用的一些prompt方案和上面的人類(lèi)思維邏輯進(jìn)行下不完全的類(lèi)比:
Prompt策略 | 類(lèi)比人類(lèi)思維 |
---|---|
Chain of Thought | 邏輯思維中的演繹推理 |
Few Shot Prompt | 類(lèi)比思維 |
SELF-REFINE,Relfection | 自省思維 |
ReAct,SelfAsk | 后續(xù)性思維(線(xiàn)性思維?) |
情感思維 | 哈哈夸夸模型會(huì)更好 |
和上面的人類(lèi)思維模式相比,似乎還少了抽象思維和發(fā)散思維,這一章我們就聊聊這兩種思考方式如何通過(guò)prompt來(lái)引導(dǎo)。
抽象思維: Step Back Prompt
- Take a Step Back: Evoking Reasoning via Abstraction in Large Language Models
- LARGE LANGUAGE MODELS CAN LEARN RULES
DeepMind提出的新Prompt方式,在思維鏈之前加了一步抽象(后退一步思考)。通過(guò)把原始問(wèn)題抽象成更高層次的概括性、概念性問(wèn)題,降低原始問(wèn)題中的細(xì)節(jié)對(duì)推理的影響,如下
在RAG場(chǎng)景里,這類(lèi)prompt策略很適合解決用戶(hù)query過(guò)于細(xì)節(jié),導(dǎo)致召回效果不佳的問(wèn)題。用戶(hù)在大模型場(chǎng)景的提問(wèn)往往比在搜索框中的提問(wèn)更加具體,包含更多條件和細(xì)節(jié),舉個(gè)例子query = “哪些國(guó)家在經(jīng)濟(jì)陷入低谷時(shí),因?yàn)橥ㄘ浥蛎泧?yán)重,而不得不加息“,如果直接對(duì)以上query進(jìn)行改寫(xiě),Decompose拆分,會(huì)發(fā)現(xiàn)都無(wú)法召回有效的內(nèi)容,因?yàn)閱?wèn)題本身粒度已經(jīng)太細(xì)了,這時(shí)不需要進(jìn)一步拆分,相反需要更高層次的總結(jié)和抽象。我們只需要把問(wèn)題修改成“哪些國(guó)家發(fā)生過(guò)被動(dòng)加息”,這類(lèi)更高層次的抽象概念,召回效果立刻起飛。
StepBack推理和COT推理相同,都是通過(guò)few-shot prompt來(lái)引導(dǎo)模型進(jìn)行后退思考。
論文對(duì)三個(gè)不同領(lǐng)域的任務(wù)進(jìn)行了評(píng)估,分別是STEM領(lǐng)域的推理任務(wù),知識(shí)密集的QA任務(wù),和multi-hop推理任務(wù)。其中前者和后兩者的prompt模板存在差異,前者是讓模型先抽象理論概念,后兩者是更通用的提出stepback問(wèn)題,個(gè)人感覺(jué)是歸納推理從特殊到一般的推理抽象過(guò)程在不同領(lǐng)域的差異性
STEM推理的few-shot prompt模板如下
知識(shí)密集的QA任務(wù)和multi-hop推理任務(wù)都是使用的以下few-shot prompt模板
測(cè)試下了step back prompt中few-shot才是核心,因?yàn)樵诓煌I(lǐng)域中歸納推理的思維是不同的,有需要對(duì)概念進(jìn)行抽象,有需要對(duì)不同時(shí)間,實(shí)體進(jìn)行抽象,有需要對(duì)條件進(jìn)行放寬,以下是論文中在QA場(chǎng)景使用的一些few-shot案例
效果上在PaML-2的模型上進(jìn)行試驗(yàn),各個(gè)任務(wù)上step-back都能相比COT有進(jìn)一步的顯著提升,在多數(shù)任務(wù)上stepback + RAG都能超越GPT-4的效果。并且prompt效果和few-shot的個(gè)數(shù)無(wú)關(guān),1-shot的效果就很好。
不過(guò)在我們的場(chǎng)景中測(cè)試,論文中提到的幾個(gè)stepback的問(wèn)題其實(shí)一定程度上被放大了,導(dǎo)致當(dāng)前看效果比較一般,主要有以下幾個(gè)問(wèn)題
- Context Loss:在抽象問(wèn)題的過(guò)程中,模型丟掉了核心的條件,導(dǎo)致問(wèn)題丟失了核心信息,后面的RAG也隨之錯(cuò)誤
- Abstraction Error: 在垂直領(lǐng)域,模型的歸納推理效果有限,往往在第一步定位principle、concept就存在錯(cuò)誤
- Timing:Step Back Prompt和Decompose其實(shí)是相對(duì)對(duì)立的關(guān)系,各自適合解決一部分問(wèn)題,在RAG場(chǎng)景中Decompose更適合粗粒度Query,Step Back適合細(xì)粒度Query,但想讓模型自己決策不同的思考方式難度有點(diǎn)高哦
另一篇論文Large Language Models can Learn Rule思路也有些類(lèi)似,也是先歸納推理再演繹推理,通過(guò)把抽象出的通用知識(shí)注入prompt,用來(lái)幫助下游推理。這里就不細(xì)說(shuō)了~
發(fā)散思維:Diversity of Thought
- Diversity of Thought Improves Reasoning Abilities of Large Language Models
發(fā)散思維簡(jiǎn)單說(shuō)就是“一題多解“,“一物多用”, 其實(shí)在Self-Consistency這類(lèi)Ensemble方案中就出現(xiàn)過(guò)。Self-Consistency通過(guò)讓模型隨機(jī)生成多個(gè)推理,從中Major Vote出概率最高的答案,更像是發(fā)散思維的對(duì)立收斂思維,重心放在從四面八方的各種嘗試中抽象問(wèn)題的核心。
Self-Consistency的重心放在收斂,而Diversity of Thought的重心放在發(fā)散。這里論文提出了兩個(gè)可以發(fā)散模型思維的prompt方式
- Approaches:以XX方式思考,例如數(shù)學(xué)問(wèn)題可以讓模型直接計(jì)算,化簡(jiǎn)計(jì)算,可視化,逆推等等
- Persona:像誰(shuí)誰(shuí)一樣思考,例如金融問(wèn)題可以像Buffett一樣思考,數(shù)學(xué)問(wèn)題像Turing一樣思考,其實(shí)每個(gè)名人背后也是相關(guān)思維思維方式的一種抽象,例如沃倫巴菲特代表是價(jià)值投資。莫名出現(xiàn)了拘靈遣將的即視感......
基于以上的多個(gè)發(fā)散維度,論文給出了兩種prompt構(gòu)建的方案
- 多個(gè)approach拼成一個(gè)one-shot讓模型推理一次給出多個(gè)不同的結(jié)果
- 1個(gè)approach作為one-shot讓模型推理多次
分別對(duì)應(yīng)以下兩種prompt
那如何得到上面的這些approach呢?這里論文也采用了大模型自動(dòng)構(gòu)建的方案,在某一類(lèi)問(wèn)題中隨機(jī)采樣query,使用以下prompt讓模型生成回答該問(wèn)題可以使用的方案,最后每個(gè)領(lǐng)域選擇出現(xiàn)頻率最大的TopN個(gè)Approach用來(lái)構(gòu)建prompt。挖掘approach的prompt如下
效果上,使用發(fā)散思維和COT進(jìn)行配合,在GSM8K,AQUA等推理任務(wù),CommenseQA等常識(shí)任務(wù),和BlocksWorld等規(guī)劃任務(wù)上均有顯著提升。并且和Self-Consistency的結(jié)論相似,以上發(fā)散思維的Ensemble數(shù)量更多,效果越好。
整體上以上的兩種思維邏輯都還相對(duì)初步,對(duì)比已經(jīng)比較成熟的演繹推理的COT還有再進(jìn)一步探索的空間,以及如何在不同場(chǎng)景下讓模型選擇不同的思維模式,進(jìn)行思考,并最終收斂到正確的結(jié)果也值得再進(jìn)行嘗試。文章來(lái)源:http://www.zghlxwxcb.cn/news/detail-838206.html
想看更全的大模型相關(guān)論文梳理·微調(diào)及預(yù)訓(xùn)練數(shù)據(jù)和框架·AIGC應(yīng)用,移步Github >> DecryPrompt文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-838206.html
到了這里,關(guān)于解密prompt系列26. 人類(lèi)思考vs模型思考:抽象和發(fā)散思維的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!