国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

[論文筆記]P-tuning

這篇具有很好參考價(jià)值的文章主要介紹了[論文筆記]P-tuning。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

引言

今天帶來第四篇大模型微調(diào)的論文筆記GPT Understands, Too。

本篇工作提出的方法是P-tuning,使用可訓(xùn)練的連續(xù)提示嵌入,使GPT在NLU上表現(xiàn)比傳統(tǒng)的全量微調(diào)的GPT更好的效果。P-tuning還提高了BERT在少樣本和監(jiān)督設(shè)定下的性能,大幅減少了提示工程的需求。

總體介紹

根據(jù)訓(xùn)練目標(biāo),預(yù)訓(xùn)練語(yǔ)言模型可被分為三類:?jiǎn)蜗蛘Z(yǔ)言模型(GPT)用于自然語(yǔ)言生成(NLG);雙向語(yǔ)言模型(BERT)用于自然語(yǔ)言理解(NLU);以及混合(hybrid)語(yǔ)言模型(XLNet和UniLM)結(jié)合了前面兩種做法。

一直以來,人們注意到GPT類的模型基于微調(diào)的情況下也在NLU上表現(xiàn)不好,因此認(rèn)為它們本質(zhì)上并不適合NLU任務(wù)。

GPT-3以其在少樣本學(xué)習(xí)和零樣本學(xué)習(xí)上的性能,尤其是在手工設(shè)置提示的情況下,已經(jīng)席卷了機(jī)器學(xué)習(xí)社區(qū)。這個(gè)模型在使用人工設(shè)計(jì)的提示時(shí)表現(xiàn)出色,引起了廣泛的關(guān)注和討論。它表明了大規(guī)模單向語(yǔ)言模型集合適合的手工提示可能也能用于NLU任務(wù)。然而手工設(shè)置提示非常麻煩,需要進(jìn)行大量的驗(yàn)證。后面有些學(xué)者嘗試?yán)秒x散的提示,但因?yàn)樯窠?jīng)網(wǎng)絡(luò)本質(zhì)上是連續(xù)的,離散的提示是次優(yōu)的。

在這篇工作中,作者提出了新的方法——P-tuning,用于在連續(xù)空間自動(dòng)搜索提示填補(bǔ)了GPT和NLU應(yīng)用的差距。P-tuning使用少量連續(xù)自由的參數(shù)用作輸入到預(yù)訓(xùn)練語(yǔ)言模型的提示。

簡(jiǎn)單的P-tuning方法為GPTs帶來了顯著的改進(jìn)。文章來源地址http://www.zghlxwxcb.cn/news/detail-731200.html

到了這里,關(guān)于[論文筆記]P-tuning的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Segment Anything論文翻譯,SAM模型,SAM論文,SAM論文翻譯;一個(gè)用于圖像分割的新任務(wù)、模型和數(shù)據(jù)集;SA-1B數(shù)據(jù)集

    Segment Anything論文翻譯,SAM模型,SAM論文,SAM論文翻譯;一個(gè)用于圖像分割的新任務(wù)、模型和數(shù)據(jù)集;SA-1B數(shù)據(jù)集

    論文鏈接: https://arxiv.org/pdf/2304.02643.pdf https://ai.facebook.com/research/publications/segment-anything/ 代碼連接:https://github.com/facebookresearch/segment-anything 論文翻譯: http://t.csdn.cn/nnqs8 https://blog.csdn.net/leiduifan6944/article/details/130080159 本文提出Segment Anything (SA)項(xiàng)目:一個(gè)用于圖像分割的新任務(wù)

    2023年04月19日
    瀏覽(69)
  • OpenAI 生成視頻模型 Sora 論文翻譯

    視頻生成模型作為世界模擬器 本技術(shù)報(bào)告的重點(diǎn)是 (1) 將所有類型的視覺數(shù)據(jù)轉(zhuǎn)換為統(tǒng)一表示,以便對(duì)生成模型進(jìn)行大規(guī)模訓(xùn)練的方法,以及 (2) 對(duì)索拉的能力和局限性的定性評(píng)估。 該報(bào)告不包括模型和實(shí)現(xiàn)細(xì)節(jié)。 許多先前的工作使用各種方法研究了視頻數(shù)據(jù)的生成建模,包

    2024年02月20日
    瀏覽(27)
  • 【YOLO系列】YOLOv3論文超詳細(xì)解讀(翻譯 +學(xué)習(xí)筆記)

    【YOLO系列】YOLOv3論文超詳細(xì)解讀(翻譯 +學(xué)習(xí)筆記)

    YOLOv3(《Yolov3:An incremental improvement》)是Joseph Redmon大佬關(guān)于YOLO系列的最后一篇,由于他反對(duì)將YOLO用于軍事和隱私窺探,2020年2月宣布停止更新YOLO。 ?YOLOv3在YOLOv2的基礎(chǔ)上改良了網(wǎng)絡(luò)的主干,利用多尺度特征圖進(jìn)行檢測(cè),改進(jìn)了多個(gè)獨(dú)立的Logistic regression分類器來取代softmax來

    2024年02月07日
    瀏覽(32)
  • 【YOLO系列】YOLOv7論文超詳細(xì)解讀(翻譯 +學(xué)習(xí)筆記)

    【YOLO系列】YOLOv7論文超詳細(xì)解讀(翻譯 +學(xué)習(xí)筆記)

    終于讀到傳說中的YOLOv7了~???? 這篇是在美團(tuán)的v6出來不到一個(gè)月就高調(diào)登場(chǎng),作者還是我們熟悉的AB大神(對(duì),就是v4那個(gè)),讀起來又是“熟悉”的感覺(貫穿了我的整個(gè)五一假期(╯-_-)╯╧╧)。 其實(shí)關(guān)于YOLOv7的網(wǎng)絡(luò)結(jié)構(gòu)還有很多細(xì)節(jié)值得深入研究,以及代碼

    2024年02月02日
    瀏覽(28)
  • 【YOLO系列】YOLOv1論文超詳細(xì)解讀(翻譯 +學(xué)習(xí)筆記)

    【YOLO系列】YOLOv1論文超詳細(xì)解讀(翻譯 +學(xué)習(xí)筆記)

    從這篇開始,我們將進(jìn)入YOLO的學(xué)習(xí)。YOLO是目前比較流行的目標(biāo)檢測(cè)算法,速度快且結(jié)構(gòu)簡(jiǎn)單,其他的目標(biāo)檢測(cè)算法如RCNN系列,以后有時(shí)間的話再介紹。 本文主要介紹的是YOLOV1,這是由以Joseph Redmon為首的大佬們于2015年提出的一種新的目標(biāo)檢測(cè)算法。它與之前的目標(biāo)檢測(cè)算法

    2024年02月04日
    瀏覽(47)
  • 【YOLO系列】YOLOv2論文超詳細(xì)解讀(翻譯 +學(xué)習(xí)筆記)

    【YOLO系列】YOLOv2論文超詳細(xì)解讀(翻譯 +學(xué)習(xí)筆記)

    時(shí)隔一年,YOLOv2隆重登場(chǎng),新的YOLO版本論文叫《YOLO9000: Better, Faster, Stronger》,作者 Joseph Redmon 和 Ali Farhadi 在 YOLOv1 的基礎(chǔ)上,進(jìn)行了大量改進(jìn),提出了 YOLOv2 和 YOLO9000,重點(diǎn)解決YOLOv1召回率和定位精度方面的不足。 論文原文:[1612.08242] YOLO9000: Better, Faster, Stronger (arxiv.org) 項(xiàng)

    2023年04月08日
    瀏覽(32)
  • 經(jīng)典神經(jīng)網(wǎng)絡(luò)論文超詳細(xì)解讀(六)——DenseNet學(xué)習(xí)筆記(翻譯+精讀+代碼復(fù)現(xiàn))

    經(jīng)典神經(jīng)網(wǎng)絡(luò)論文超詳細(xì)解讀(六)——DenseNet學(xué)習(xí)筆記(翻譯+精讀+代碼復(fù)現(xiàn))

    上一篇我們介紹了ResNet:經(jīng)典神經(jīng)網(wǎng)絡(luò)論文超詳細(xì)解讀(五)——ResNet(殘差網(wǎng)絡(luò))學(xué)習(xí)筆記(翻譯+精讀+代碼復(fù)現(xiàn)) ResNet通過短路連接,可以訓(xùn)練出更深的CNN模型,從而實(shí)現(xiàn)更高的準(zhǔn)確度。今天我們要介紹的是 DenseNet(《Densely connected convolutional networks》) 模型,它的基本

    2024年02月03日
    瀏覽(62)
  • 經(jīng)典神經(jīng)網(wǎng)絡(luò)論文超詳細(xì)解讀(八)——ResNeXt學(xué)習(xí)筆記(翻譯+精讀+代碼復(fù)現(xiàn))

    經(jīng)典神經(jīng)網(wǎng)絡(luò)論文超詳細(xì)解讀(八)——ResNeXt學(xué)習(xí)筆記(翻譯+精讀+代碼復(fù)現(xiàn))

    今天我們一起來學(xué)習(xí)何愷明大神的又一經(jīng)典之作:? ResNeXt(《Aggregated Residual Transformations for Deep Neural Networks》) 。這個(gè)網(wǎng)絡(luò)可以被解釋為 VGG、ResNet?和 Inception 的結(jié)合體,它通過重復(fù)多個(gè)block(如在 VGG 中)塊組成,每個(gè)block塊聚合了多種轉(zhuǎn)換(如 Inception),同時(shí)考慮到跨層

    2024年02月03日
    瀏覽(30)
  • 經(jīng)典神經(jīng)網(wǎng)絡(luò)論文超詳細(xì)解讀(五)——ResNet(殘差網(wǎng)絡(luò))學(xué)習(xí)筆記(翻譯+精讀+代碼復(fù)現(xiàn))

    經(jīng)典神經(jīng)網(wǎng)絡(luò)論文超詳細(xì)解讀(五)——ResNet(殘差網(wǎng)絡(luò))學(xué)習(xí)筆記(翻譯+精讀+代碼復(fù)現(xiàn))

    《Deep Residual Learning for Image Recognition》這篇論文是何愷明等大佬寫的,在深度學(xué)習(xí)領(lǐng)域相當(dāng)經(jīng)典,在2016CVPR獲得best paper。今天就讓我們一起來學(xué)習(xí)一下吧! 論文原文:https://arxiv.org/abs/1512.03385 前情回顧: 經(jīng)典神經(jīng)網(wǎng)絡(luò)論文超詳細(xì)解讀(一)——AlexNet學(xué)習(xí)筆記(翻譯+精讀)

    2024年02月08日
    瀏覽(23)
  • 論文翻譯:DeepFilterNet

    論文翻譯:DeepFilterNet

    論文題目 :DeepFilterNet: A Low Complexity Speech Enhancement Framework for Full-Band Audio based on Deep Filtering 題目譯文 :DeepFilterNet:基于深度濾波器的全頻帶音頻低復(fù)雜度語(yǔ)音增強(qiáng)框架 論文地址 :https://arxiv.org/abs/2110.05588 論文代碼 :https://github.com/Rikorose/DeepFilterNet 引用 :Schr?ter H, Rosenkr

    2024年02月07日
    瀏覽(23)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包