?? 下面我只是分析講解下這些方法的原理以及具體代碼是怎么實現(xiàn)的,不對效果進行評價,畢竟不同任務不同數(shù)據(jù)集效果差別還是挺大的。
文章來源地址http://www.zghlxwxcb.cn/news/detail-622306.html
0、hard prompt & soft prompt區(qū)別
- hard prompt (離散):即人類寫的自然語言式的prompt。
- soft prompt (連續(xù)):可訓練的權重,可以理解為偽prompt?!井吘筺n是連續(xù)的模型,在連續(xù)空間中優(yōu)化離散的prompt, 難以優(yōu)化到最佳效果。額也就是說所謂的hard prompt對于人類來說好理解,但模型不一定好理解,
文章來源:http://www.zghlxwxcb.cn/news/detail-622306.html
到了這里,關于LLM微調(diào) | Prefix-Tuning, Prompt-Tuning, P-tuning, P-tuning-v2的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!