本文是LLM系列的文章,針對《Decoupling Knowledge from Memorization:
Retrieval
摘要
提示學習方法在仍然遵循基于參數(shù)的學習范式的同時,通過誘導更好的小樣本表現(xiàn),在自然語言處理中掀起了波瀾;學習中的遺忘和死記硬背問題可能會遇到不穩(wěn)定的泛化問題。具體來說,在完全監(jiān)督的訓練中,樸素的提示學習可能很難死記硬背地利用非典型實例,或者用低樣本數(shù)據(jù)過度擬合淺層模式。為了緩解這些限制,我們開發(fā)了RETROPROMPT,其動機是將知識與記憶脫鉤,以幫助模型在泛化和記憶之間取得平衡。與普通的提示學習相比,RETROPROPT從訓練實例中構建了一個開卷知識庫,并在輸入、訓練和推理過程中實現(xiàn)了檢索機制,從而使模型能夠從訓練語料庫中檢索相關上下文作為增強的線索。大量的實驗表明,RETROPROPT可以在小樣本和零樣本設置中獲得更好的性能。此外,我們還進一步說明了我們提出的RETROPROPT可以在新的數(shù)據(jù)集上產(chǎn)生更好的泛化能力。對記憶的詳細分析確實表明,RETROPROMPT可以減少語言模型對記憶的依賴;因此,提高了下游任務的泛化能力。文章來源:http://www.zghlxwxcb.cn/news/detail-674322.html
1 引言
2 提示學習的前言
3 RETROPROMPT:檢索增強的提示學習
4 實驗
5 相關實驗
6 結論與未來工作
我們提出了通過引入檢索增強來將知識與記憶解耦的RETROPROPT,以進一步提高輸入端提示學習的泛化能力以及模型訓練和預測的整個過程。RETROPROPT是一種簡單而有效的檢索方法,它結合了神經(jīng)演示、用于訓練和預測的kNN指南。我們的廣泛研究結果表明,它在小樣本、零樣本和全監(jiān)督設置中優(yōu)于其他演示增強提示方法和知識增強提示方法。分析記憶的本質,驗證了知識與記憶脫鉤的有效性。有趣的未來方向包括:1)應用于其他任務,如QA和NLG,2)探索用于無監(jiān)督學習的噪聲數(shù)據(jù)挖掘,3)進一步提高大型數(shù)據(jù)集的檢索效率,等等。文章來源地址http://www.zghlxwxcb.cn/news/detail-674322.html
到了這里,關于Decoupling Knowledge from Memorization: Retrieval-augmented Prompt Learning的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!