引言
今天帶來第四篇大模型微調(diào)的論文筆記GPT Understands, Too。
本篇工作提出的方法是P-tuning,使用可訓(xùn)練的連續(xù)提示嵌入,使GPT在NLU上表現(xiàn)比傳統(tǒng)的全量微調(diào)的GPT更好的效果。P-tuning還提高了BERT在少樣本和監(jiān)督設(shè)定下的性能,大幅減少了提示工程的需求。
總體介紹
根據(jù)訓(xùn)練目標(biāo),預(yù)訓(xùn)練語(yǔ)言模型可被分為三類:?jiǎn)蜗蛘Z(yǔ)言模型(GPT)用于自然語(yǔ)言生成(NLG);雙向語(yǔ)言模型(BERT)用于自然語(yǔ)言理解(NLU);以及混合(hybrid)語(yǔ)言模型(XLNet和UniLM)結(jié)合了前面兩種做法。
一直以來,人們注意到GPT類的模型基于微調(diào)的情況下也在NLU上表現(xiàn)不好,因此認(rèn)為它們本質(zhì)上并不適合NLU任務(wù)。
GPT-3以其在少樣本學(xué)習(xí)和零樣本學(xué)習(xí)上的性能,尤其是在手工設(shè)置提示的情況下,已經(jīng)席卷了機(jī)器學(xué)習(xí)社區(qū)。這個(gè)模型在使用人工設(shè)計(jì)的提示時(shí)表現(xiàn)出色,引起了廣泛的關(guān)注和討論。它表明了大規(guī)模單向語(yǔ)言模型集合適合的手工提示可能也能用于NLU任務(wù)。然而手工設(shè)置提示非常麻煩,需要進(jìn)行大量的驗(yàn)證。后面有些學(xué)者嘗試?yán)秒x散的提示,但因?yàn)樯窠?jīng)網(wǎng)絡(luò)本質(zhì)上是連續(xù)的,離散的提示是次優(yōu)的。
在這篇工作中,作者提出了新的方法——P-tuning,用于在連續(xù)空間自動(dòng)搜索提示填補(bǔ)了GPT和NLU應(yīng)用的差距。P-tuning使用少量連續(xù)自由的參數(shù)用作輸入到預(yù)訓(xùn)練語(yǔ)言模型的提示。文章來源:http://www.zghlxwxcb.cn/news/detail-731200.html
簡(jiǎn)單的P-tuning方法為GPTs帶來了顯著的改進(jìn)。文章來源地址http://www.zghlxwxcb.cn/news/detail-731200.html
到了這里,關(guān)于[論文筆記]P-tuning的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!