大家好,我是 Jambo。我們已經(jīng)學(xué)習(xí)了如何使用 LangChain 的一些基本功能,解下我們就應(yīng)該要結(jié)合這些功能來做一些復(fù)雜的東西了。但在這之前,為了讓同學(xué)們更好的理解 LangChain 在這其中做了什么,我想先介紹一下關(guān)于 GPT 使用方面的一些知識(shí)。
在 ChatGPT 開放之初,除了各大公司在 AI 算法方面競爭,還有許多人在研究如何僅通過修改 prompt 就能讓 GPT-3 做出更好的回答,這種方法被稱為“提示工程(Prompt Engineering)”。如果把 LLM 比喻成一個(gè)擁有一般常識(shí)的大腦,那么提示工程就是在教它如何思考,從而更有效的結(jié)合知識(shí)得出答案。像 AutoGPT 就是這樣,他通過精心設(shè)計(jì)的 prompt,就能讓 GPT-4 自行完成各種任務(wù)。為了讓同學(xué)們了解這其中的思想,我們先從“思維鏈”開始介紹。
思維鏈(Chain of Thought)
思維鏈(Chain of Thought)在 ChatGPT 推出后不久就被提出,具體來說就是通過手動(dòng)編寫示例的方式讓 GPT-3 將問題的思考過程也生成出來,通過這種方式 GPT-3 回答的效果會(huì)有大幅提升。就像我們在寫比較復(fù)雜的計(jì)算題,將過程一步一步寫出來的正確率會(huì)比直接寫出答案要高。
文章來源:http://www.zghlxwxcb.cn/news/detail-603742.html
后來有人發(fā)現(xiàn),只需要加上 “Let’s think step by step.” 這一魔法提示,就能達(dá)到一樣的效果,還不需要寫示例。并且他還在這基礎(chǔ)上,額外讓 GPT 根據(jù)它前面附帶思考過程的回答?文章來源地址http://www.zghlxwxcb.cn/news/detail-603742.html
到了這里,關(guān)于用 LangChain 構(gòu)建基于資料庫的問答機(jī)器人(三):ReAct的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!