元提示:任務(wù)-不可知論框架 強(qiáng)化 語言模型
“不可知論”,通常用來描述可以應(yīng)用于多種不同任務(wù)的模型,指模型并非為解決特定任務(wù)而設(shè)計(jì)
github.com
摘要:
-
元提示引導(dǎo) LM 將復(fù)雜的任務(wù)分解為更小、更易于管理的子任務(wù),子任務(wù)由同一 LM 的不同“專家”實(shí)例處理,每個(gè)實(shí)例都在特定的、定制的指令下運(yùn)行
-
使用批判性思維和驗(yàn)證流程來完善和驗(yàn)證最終結(jié)果
-
協(xié)作提示方法使單個(gè) LM 能夠同時(shí)充當(dāng)綜合協(xié)調(diào)者和多元化專家小組,從而提高其在各種任務(wù)中的表現(xiàn)
-
下圖為元提示在三個(gè)任務(wù)中的準(zhǔn)確性圖(使用python與元提示結(jié)合的方式得出的結(jié)果)
-
Introduction
-
由大模型的輸出依舊不準(zhǔn)確,引出一個(gè)問題 是否有一套框架能夠細(xì)化、提高準(zhǔn)確性
-
本文工作
-
( i )將復(fù)雜的任務(wù)或問題分解成更小的、可管理的部分;
-
( ii )將這些片段分配給專門的"專家"模型,并提供詳細(xì)的自然語言說明;
-
( iii )監(jiān)督這些專家模型之間的交流;
-
( iv)在整個(gè)過程中運(yùn)用自己的批判性思維、推理和驗(yàn)證技能
-
-
該方法能夠使單個(gè)黑盒LM有效地作為中心體和不同的專家小組發(fā)揮作用,以產(chǎn)生更準(zhǔn)確、可靠和連貫的響應(yīng)
-
與其他框架不同的是,元提示在不同的任務(wù)和輸入中使用同一套高級(jí)指令
-
-
循環(huán)過程:a )為元提示模型注入指令,( b )元提示模型的輸出(提示基于整個(gè)歷史),( c )專家的輸出(只有在元模型生成的指導(dǎo)語上才有新提示)。
Meta-prompting
-
元提示:使用一個(gè)模型2來協(xié)調(diào)和執(zhí)行多個(gè)獨(dú)立的查詢,隨后合成響應(yīng)結(jié)果以呈現(xiàn)最終的響應(yīng)結(jié)果
-
單一的通用模型可以為通用查詢提供有價(jià)值的結(jié)論,但將多個(gè)特定領(lǐng)域模型的觀點(diǎn)和結(jié)論結(jié)合起來,有可能產(chǎn)生更全面、更穩(wěn)健和更準(zhǔn)確的解決方案。
-
-
程序
-
轉(zhuǎn)換輸入:將輸入轉(zhuǎn)換至合適的模板內(nèi)
-
循環(huán)
-
當(dāng)前消息列表H_t直接傳給特定領(lǐng)域?qū)<耀@得回答
-
如果無返回回答,將消息列表傳給任意領(lǐng)域?qū)<?,從回答中提取指令,再添加到新的模板?nèi)
-
返回最終答案:如模型答案包含最終答案,則抽取答案并返回
-
若模型返回不包括最終答案也不包括專家調(diào)用,則在消息列表Ht中附加一條錯(cuò)誤報(bào)告
-
-
-
元和專家模型規(guī)范:Meta和Expert兩種能力中發(fā)揮作用根據(jù)其提示語中各自的模型指示來區(qū)分,元模型遵循圖3中提供的一組指示,而專家模型遵循由元模型在推理時(shí)動(dòng)態(tài)確定的單獨(dú)指示
-
實(shí)驗(yàn)
-
baseline:標(biāo)準(zhǔn)提示,0-shot CoT,專家提示多人提示
-
數(shù)據(jù)集和任務(wù):EM for Geometric Shapes, Multi-Step Arithmetic Two, and Checkmate-in-One; SM for MGSM and Word Sorting,; and FC for Game of 24, Python Programming Puzzles, and Shakespearean Sonnet Writing.
-
包含了數(shù)學(xué)、算法推理、詩寫作多種任務(wù)
-
-
答案提取和評(píng)價(jià)方案
-
答案包含在 三引號(hào) 中
-
定義了三個(gè)指標(biāo)
-
Exact Match (EM):答案與真實(shí)答案精確對(duì)齊指標(biāo)
-
Soft Match (SM):在模型的輸出中存在一個(gè)基本的真值標(biāo)簽是可以的
-
Functionally Correct (FC): 確定答案在功能上是否正確
-
-
-
模型與推理主要使用GPT-4 temperature=0 top-p=0.95 max_token=1024
-
-
從實(shí)驗(yàn)結(jié)果來看,元提示可以以任務(wù)無關(guān)的方式利用Python解釋器,在許多任務(wù)中顯著地提高性能
-
對(duì)實(shí)驗(yàn)結(jié)果的分析
-
這種方法被證明在處理嚴(yán)重依賴于啟發(fā)式或迭代試錯(cuò)問題解決策略的任務(wù)時(shí)特別有效。
-
元提示框架的成功在于策略性地使用了專業(yè)知識(shí)、自我協(xié)作和隱含的驗(yàn)證循環(huán)
-
群體智慧策略:一組不同的批判性思想家的集體意見往往超過個(gè)別專家的見解。
-
應(yīng)用群體智慧實(shí)現(xiàn)任務(wù)零樣本分解、錯(cuò)誤檢測(cè)和答案的聚合
-
-
元提示( meta-prompting )中,通過邀請(qǐng)專家或人物來重新評(píng)估問題,引入了新的視角。這種方法為新的見解和潛在的發(fā)現(xiàn)以前未被注意到的不正確的解決方案提供了機(jī)會(huì)
-
實(shí)時(shí)代碼執(zhí)行能夠?qū)鉀Q方案進(jìn)行即時(shí)驗(yàn)證和優(yōu)化,大幅提高問題求解的效率和精度。
-
討論
-
元提示補(bǔ)充個(gè)分析
-
元模型對(duì)專家類型的動(dòng)態(tài)選擇清晰地說明了其與具體任務(wù)需求的適應(yīng)性和策略性契合
-
在元模型中達(dá)到解決方案所需的平均輪數(shù)在不同任務(wù)之間存在顯著差異
-
元模型的系統(tǒng)驗(yàn)證協(xié)議加強(qiáng)了其解決方案的可靠性和健壯
-
元提示使元模型能夠比其他提示方法更頻繁地承認(rèn)有效解的缺失或不可能,或無法找到有效解
-
通過對(duì)比gpt-4和gpt-3.5發(fā)現(xiàn),模型的規(guī)模、語料庫的質(zhì)量和大小等因素可能會(huì)顯著影響元提示方法的效果。
-
-
元提示的局限性
-
成本效率、可擴(kuò)展性、操作線性度、域限制、信息傳輸挑戰(zhàn)和響應(yīng)模式方面都存在一定限制
-
結(jié)論
-
元提示,以 與任務(wù)無關(guān)的形式 增強(qiáng)語言模型能力
-
利用LM充當(dāng)中心體和專家實(shí)例,賦予傳統(tǒng)模型動(dòng)態(tài)的多功能能力文章來源:http://www.zghlxwxcb.cn/news/detail-848631.html
-
-
元提示能夠熟練地分解復(fù)雜的任務(wù),為每個(gè)組件提供不同的專業(yè)知識(shí),無縫地集成不同的輸出文章來源地址http://www.zghlxwxcb.cn/news/detail-848631.html
到了這里,關(guān)于論文閱讀:Meta-Prompting的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!