本文是LLM系列的文章,針對《Tree of Thoughts: Deliberate Problem Solving
with Large Language Models》的翻譯。
摘要
語言模型越來越多地被部署用于解決各種任務(wù)中的一般問題,但在推理過程中仍然局限于token級別的從左到右的決策過程。這意味著他們可能無法完成需要探索、戰(zhàn)略前瞻或初始決策發(fā)揮關(guān)鍵作用的任務(wù)。為了克服這些挑戰(zhàn),我們引入了一種新的語言模型推理框架“思維樹”(ToT),它概括了流行的“思維鏈”方法來提示語言模型,并能夠探索連貫的文本單元(“思維”),作為解決問題的中間步驟。ToT允許LMs通過考慮多個不同的推理路徑和自我評估選擇來進(jìn)行深思熟慮的決策,以決定下一步行動,并在必要時前瞻或回溯以做出全局選擇。我們的實驗表明,ToT顯著提高了語言模型在三項需要非瑣碎計劃或搜索的新任務(wù)上的解決問題能力:24小時游戲、創(chuàng)意寫作和迷你交叉詞。例如,在《24小時游戲》中,具有思維鏈提示的GPT-4只解決了4%的任務(wù),而我們的方法的成功率為74%。帶有所有提示的代碼庫:https://github.com/ysymyth/tree-of-thought-llm.文章來源:http://www.zghlxwxcb.cn/news/detail-668348.html
1 引言
2 背景
3 思維樹:用LM進(jìn)行深思熟慮的問題解決
4 實驗
5 相關(guān)工作
6 討論
限制和未來方向。對于GPT-4已經(jīng)擅長的許多現(xiàn)有任務(wù)來說,像ToT這樣的深思熟慮的搜索可能不是必要的,作為最初的一步,這項工作只探索了三個相對簡單的任務(wù),這些任務(wù)挑戰(zhàn)了GPT-4,并呼吁將更好的搜索和規(guī)劃能力與LMs結(jié)合起來。然而,隨著我們開始為更多現(xiàn)實世界的決策應(yīng)用(如編碼、數(shù)據(jù)分析、機(jī)器人等)部署LM,可能會出現(xiàn)更復(fù)雜的任務(wù),并為研究這些研究問題提供新的機(jī)會。此外,像ToT這樣的搜索方法需要比采樣方法更多的資源(例如GPT-4 API成本)來提高任務(wù)性能,但ToT的模塊化靈活性允許用戶定制這種性能成本權(quán)衡,正在進(jìn)行的開源努力在不久的將來應(yīng)該很容易降低這種成本。最后,這項工作的重點是使用現(xiàn)成的LM,使用ToT風(fēng)格的高級反事實決策對LM進(jìn)行微調(diào)(例如,考慮下一段的潛在選擇,而不是預(yù)測下一個token)可能會為提高LM的解決問題能力提供機(jī)會。
更廣泛的影響。ToT是一個使LMs能夠更自主、更智能地做出決策和解決問題的框架。雖然目前的任務(wù)僅限于推理和搜索問題,但未來涉及與外部環(huán)境或人類互動的應(yīng)用可能會帶來潛在的危險,例如促進(jìn)LMs的有害使用。另一方面,ToT還提高了模型決策的可解釋性和人類對齊的機(jī)會,因為生成的表示是可讀的、高級語言推理,而不是隱式的、低級的token值。
結(jié)論。LMs的關(guān)聯(lián)“系統(tǒng)1”可以通過基于搜索問題解決方案的可能路徑樹的“系統(tǒng)2”進(jìn)行有益的擴(kuò)展。思維樹框架提供了一種將關(guān)于解決問題的經(jīng)典見解轉(zhuǎn)化為當(dāng)代LMs可操作方法的方法。同時,LM解決了這些經(jīng)典方法的弱點,提供了一種解決不容易形式化的復(fù)雜問題的方法,例如創(chuàng)造性寫作。我們認(rèn)為,LMs與人工智能經(jīng)典方法的交叉是未來工作的一個令人興奮的方向。文章來源地址http://www.zghlxwxcb.cn/news/detail-668348.html
到了這里,關(guān)于Tree of Thoughts: Deliberate Problem Solving with Large Language Models的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!