《ChatGPT?Prompt?Engineering?for?Developers》
?面向開發(fā)者的ChatGPT提示工程
shadow
趁著假期,學習了prompt課程,做了一些精簡和關(guān)鍵知識點的梳理,分享給大家。
LLM 可完成的任務
包括:
總結(jié)(如總結(jié)用戶評論)
推斷(如情緒分類、主題提?。?/p>
轉(zhuǎn)換文本(如翻譯、改寫)
擴展(如自動寫電子郵件)
用ChatGPT總結(jié)概括https://chirper.ai/shadowai
推斷 - 情感分類
轉(zhuǎn)換文本,把一篇深奧的文章變成適合講解給小朋友的故事
擴展,自動寫電子郵件,介紹文章
prompt技巧
當您使用prompt調(diào)整LLM時,請考慮將prompt發(fā)送給一個聰明但不了解您任務細節(jié)的人。如果LLM不能正常工作,有時是因為prompt不夠清晰。
第一個原則:編寫明確和具體的指令。
第二個原則:給模型足夠的時間思考。
不要混淆清晰的提示與簡短的提示,因為在許多情況下,更長的提示實際上提供了更多的清晰度和上下文,這有利于LLM符合預期輸出。
原則一:明確具體的指令
技巧1:使用區(qū)分符
使用分隔符,明確指示輸入的不同部分。區(qū)分符可以是任何符號,比如```, """, < >, <tag> </tag>,讓模型清楚地知道哪些是獨立的部分,以避免提示注入。
提示注入(Prompt Injection)是指輸入中可能會與我們的指令相矛盾的用戶指令,導致模型遵循用戶的指令而不是我們的指令。
如果沒有區(qū)分符,用戶可能會添加不相關(guān)的輸入,導致模型輸出錯誤的結(jié)果。因此,使用區(qū)分符可以提高模型的準確性和穩(wěn)定性。
技巧2:結(jié)構(gòu)化輸出
為了更容易解析模型輸出,要求模型以HTML或JSON等結(jié)構(gòu)化格式輸出可能是有幫助的。
技巧3:是否滿足條件
如果任務有一些假設并不一定滿足,我們可以告訴模型先檢查這些假設,如果不滿足,則指出并停止任務。
技巧4:少樣本提示
few-shot prompting。這種方法是在讓模型執(zhí)行實際任務之前,提供已經(jīng)成功執(zhí)行所需任務的示例。
原則二:給模型思考時間
如果你給模型一個太復雜的任務,在短時間內(nèi)它可能會得到不正確的結(jié)果。
技巧1:分步驟補全
首先,我們可以使用明確的步驟來完成一個任務。在這個例子中,我們給模型提供了一個包含Jack and Jill故事的段落,并且使用明確的步驟指示模型完成四個任務:
1.首先,用一句話來概括文本
2.其次將概述翻譯成法語
3.然后列出法語概述中的每個名稱
4.并且輸出一個JSON對象包含"French summary"和"num names"兩個key。
運行這個模型后,我們可以看到模型分別完成了這四個任務,并按照我們要求的格式輸出了結(jié)果。
技巧2:讓模型先梳理再給結(jié)論
有時,當我們明確指示模型在得出結(jié)論之前先理清事情的順序時,我們會獲得更好的結(jié)果。
在這個問題中,我們要求模型判斷學生的解答是否正確。首先,我們有這個數(shù)學問題,然后是學生的解答。
小白的prompt入門實驗指南&Mixlab推薦
opus文章來源:http://www.zghlxwxcb.cn/news/detail-460329.html
更多提示工程技巧可以關(guān)注社群or知識星球噢~~文章來源地址http://www.zghlxwxcb.cn/news/detail-460329.html
到了這里,關(guān)于吳恩達和OpenAI的《面向開發(fā)者的ChatGPT提示工程》精華筆記的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!