国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【論文解讀】Prefix-Tuning: Optimizing Continuous Prompts for Generation

這篇具有很好參考價值的文章主要介紹了【論文解讀】Prefix-Tuning: Optimizing Continuous Prompts for Generation。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

一.介紹

1.1 前置知識

1.1.1?in-context learning

At the limit, GPT-3 (Brown et al, 2020) can be deployed using in-context learning, which is a form of prompting, without modifying any LM parameters.

"部署" 指的是將 GPT-3 模型用于實際應(yīng)用或特定任務(wù)的過程。

"In-context learning" 是一種通過提供上下文或附加信息來指導(dǎo)模型生成的方法。在這種情況下,用戶可以向 GPT-3 提供一些上下文或提示(prompt),以引導(dǎo)模型生成相關(guān)的回復(fù)或執(zhí)行特定任務(wù),而不必重新訓(xùn)練或微調(diào)模型。模型根據(jù)提示生成響應(yīng),并且可以根據(jù)提示的不同來執(zhí)行不同的任務(wù)。這種方式可以讓 GPT-3 在不修改模型參數(shù)的情況下,適應(yīng)多種任務(wù)。

1.2 簡介

【論文解讀】Prefix-Tuning: Optimizing Continuous Prompts for Generation,nlp,人工智能,nlp

微調(diào)(頂部)更新所有LM參數(shù)(紅色Transformer框),并且需要為每個任務(wù)存儲完整的模型副本。我們提出prefixtuning(底部),它凍結(jié)LM參數(shù)并只優(yōu)化前綴(紅色前綴塊)。因此,我們只需要為每個任務(wù)存儲前綴,使前綴調(diào)優(yōu)模塊化且節(jié)省空間。

前綴調(diào)優(yōu)(prefix-tuning)將一系列,被稱之為前綴(prefix),連續(xù)的特定于任務(wù)的向量添加到輸入中。為了生成每個令牌,LM可以像處理“虛擬令牌”序列一樣處理前綴,但與提示不同的是,前綴完全由不對應(yīng)于真實令牌的自由參數(shù)組成。

1.3 理解

基于前綴的架構(gòu)使我們能夠在單個批處理中處理來自多個用戶/任務(wù)的示例,這是其他輕量級微調(diào)方法(如adaptertuning)無法實現(xiàn)的。

二 .

2.1 問題建模

一個條件生成任務(wù),其中輸入x是一個上下文,輸出y是一個令牌序列。有兩種模式:第一種是像GPT2的自回歸模型,第二種是類似于BART的encoder-decoder架構(gòu)來建模上述問題

2.1.1 自回歸建模

【論文解讀】Prefix-Tuning: Optimizing Continuous Prompts for Generation,nlp,人工智能,nlp

表示在時間步驟i的到第j層的激活向量。

一個自回歸神經(jīng)LM計算作為的函數(shù)和過去在其左側(cè)上下文中的激活,如下所示:

【論文解讀】Prefix-Tuning: Optimizing Continuous Prompts for Generation,nlp,人工智能,nlp

最后一層使用Softmax計算下一個token的分布

2.1.2 編碼器解碼器架構(gòu)

由雙向編碼器編碼,解碼器自回歸預(yù)測y(以編碼的x及其左側(cè)上下文為條件)

通過雙向編碼器獲得當(dāng)時的,通過自回歸解碼器獲得當(dāng)時的

2.2?Prefix-Tuning

上下文可以通過指導(dǎo)從x中提取什么來影響任務(wù)輸入x的編碼,并且可以通過指導(dǎo)下一個令牌分布來影響任務(wù)輸出y的生成。比較直觀的想法就是直接使用詞嵌入來替代在使用過程中提供上下文信息和額外信息

  • 自回歸 :?增加一個前綴,得到z = [prefix;x;y]
  • encoder-decoder架構(gòu):為編碼器和解碼器都添加前綴,得到z = [PREFIX;x;;y]

直接更新Pθ參數(shù)會導(dǎo)致優(yōu)化不穩(wěn)定,直接重參數(shù)化為一個小的矩陣和一個大前饋神經(jīng)網(wǎng)絡(luò)MLP,即?。一旦訓(xùn)練完成,這些重參數(shù)化參數(shù)可以被丟棄,只需要保存前綴

2.3 實驗結(jié)論

  • 當(dāng)訓(xùn)練樣本數(shù)量較少時,前綴調(diào)優(yōu)具有相對優(yōu)勢
  • 前綴長度:更長的前綴意味著更多可訓(xùn)練的參數(shù)。當(dāng)前綴長度增加到一個閾值(時,性能會增加,然后出現(xiàn)輕微的性能下降。

【論文解讀】Prefix-Tuning: Optimizing Continuous Prompts for Generation,nlp,人工智能,nlp

  • 增強表現(xiàn)力的鏈:離散提示< embedding-only < prefix-tuning

embedding-only就是“虛擬令牌”的連續(xù)嵌入的實例化實現(xiàn)

  • 前綴調(diào)優(yōu)由優(yōu)于中綴調(diào)優(yōu)

作者認為這是因為前綴調(diào)優(yōu)可以影響x和y的激活,而中綴調(diào)優(yōu)只能影響y的激活。文章來源地址http://www.zghlxwxcb.cn/news/detail-722044.html

到了這里,關(guān)于【論文解讀】Prefix-Tuning: Optimizing Continuous Prompts for Generation的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 多模態(tài)大語言模型 LlaVA 論文解讀:Visual Instruction Tuning

    多模態(tài)大語言模型 LlaVA 論文解讀:Visual Instruction Tuning

    代碼:https://github.com/haotian-liu/LLaVA 在這篇論文中,作者首次嘗試使用 純語言 GPT-4 生成多模態(tài)語言圖像指令遵循數(shù)據(jù) (insruction-following data)。 通過對此類生成數(shù)據(jù)進行指令調(diào)整,推出了 大型語言和視覺助手 (Large Language and Vision Assistant, LLaVA )。一種端到端訓(xùn)練的大型多

    2024年02月11日
    瀏覽(27)
  • 大模型PEFT技術(shù)原理(一):BitFit、Prefix Tuning、Prompt Tuning

    大模型PEFT技術(shù)原理(一):BitFit、Prefix Tuning、Prompt Tuning

    ? ? ? ?隨著預(yù)訓(xùn)練模型的參數(shù)越來越大,尤其是175B參數(shù)大小的GPT3發(fā)布以來,讓很多中小公司和個人研究員對于大模型的 全量微調(diào) 望而卻步,近年來研究者們提出了各種各樣的參數(shù)高效遷移學(xué)習(xí)方法(Parameter-efficient Transfer Learning),即固定住Pretrain Language model(PLM)的大部

    2024年01月25日
    瀏覽(47)
  • 大模型參數(shù)高效微調(diào)技術(shù)原理綜述(二)-BitFit、Prefix Tuning、Prompt Tuning

    大模型參數(shù)高效微調(diào)技術(shù)原理綜述(二)-BitFit、Prefix Tuning、Prompt Tuning

    隨著,ChatGPT 迅速爆火,引發(fā)了大模型的時代變革。然而對于普通大眾來說,進行大模型的預(yù)訓(xùn)練或者全量微調(diào)遙不可及。由此,催生了各種參數(shù)高效微調(diào)技術(shù),讓科研人員或者普通開發(fā)者有機會嘗試微調(diào)大模型。 因此,該技術(shù)值得我們進行深入分析其背后的機理,本系列大

    2024年02月09日
    瀏覽(18)
  • 一文讀懂大型語言模型參數(shù)高效微調(diào):Prefix Tuning與LLaMA-Adapter

    一文讀懂大型語言模型參數(shù)高效微調(diào):Prefix Tuning與LLaMA-Adapter

    芝士AI吃魚 在快速發(fā)展的人工智能領(lǐng)域中,高效、有效地使用大型語言模型變得日益重要,參數(shù)高效微調(diào)是這一追求的前沿技術(shù),它允許研究人員和實踐者在最小化計算和資源占用的同時,重復(fù)使用預(yù)訓(xùn)練模型。這還使我們能夠在更廣泛的硬件范圍內(nèi)訓(xùn)練AI模型,包括計算能

    2024年01月17日
    瀏覽(26)
  • 【論文】Continuous Rapid Action Value Estimates閱讀筆記

    【論文】Continuous Rapid Action Value Estimates閱讀筆記

    之前在閱讀KR-UCT論文時,里面提到過與UCT結(jié)合的主要兩種啟發(fā)式方法旨在指導(dǎo)探索策略,通過使用漸進拓寬(PW)限制考慮的行動的數(shù)量,并使用快速行動價值估計(RAVE)選擇最有前途的行動。因此找了一篇RAVE來學(xué)習(xí)一下。 MCTS最常使用上置信樹算法來處理探索和利用之間的

    2024年03月08日
    瀏覽(70)
  • Super Resolve Dynamic Scene from Continuous Spike Streams論文筆記

    Super Resolve Dynamic Scene from Continuous Spike Streams論文筆記

    近期,脈沖相機在記錄高動態(tài)場景中展示了其優(yōu)越的潛力。不像傳統(tǒng)相機將一個曝光時間內(nèi)的視覺信息進行壓縮成像,脈沖相機連續(xù)地輸出二的脈沖流來記錄動態(tài)場景,因此擁有極高的時間分辨率。而現(xiàn)有的脈沖相機重建方法主要集中在重建和脈沖相機相同分辨率的圖像上。

    2024年02月10日
    瀏覽(22)
  • Prompt-Tuning——深度解讀一種新的微調(diào)范式

    Prompt-Tuning——深度解讀一種新的微調(diào)范式

    作者:王嘉寧??郵箱:lygwjn@126.com 轉(zhuǎn)載請注明出處:https://wjn1996.blog.csdn.net/article/details/120607050 本博客針對Prompt進行的綜述博客,暫時為半成品,持續(xù)更新中,若對您的科研和工作有所幫助,期待您的收藏與引用。 作者簡介:王嘉寧,華東師范大學(xué) 數(shù)據(jù)學(xué)院 博士生,研究

    2024年02月15日
    瀏覽(17)
  • 論文筆記:Continuous Trajectory Generation Based on Two-Stage GAN

    論文筆記:Continuous Trajectory Generation Based on Two-Stage GAN

    2023 AAAI 建模人類個體移動模式并生成接近真實的軌跡在許多應(yīng)用中至關(guān)重要 1)生成軌跡方法能夠為城市規(guī)劃、流行病傳播分析和交通管控等城市假設(shè)分析場景提供仿仿真數(shù)據(jù)支撐 2)生成軌跡方法也是目前促進軌跡數(shù)據(jù)開源共享與解決軌跡數(shù)據(jù)隱私問題的可行解決方案 在不

    2024年02月12日
    瀏覽(46)
  • 【提示學(xué)習(xí)論文七】Visual Prompt Tuning論文原理

    【提示學(xué)習(xí)論文七】Visual Prompt Tuning論文原理

    這篇文章于2022年發(fā)表在ECCV(European Conference on Computer Vision),作者是Menglin Jia, Luming Tang,Bor-Chun Chen, Claire Cardie, Serge Belongie,Bharath Hariharan, Ser-Nam Lim。 VPT是一種有效的用于大規(guī)模Transformer的視覺微調(diào),只需要在輸入空間引入少量可訓(xùn)練參數(shù),同時凍結(jié)backbone。 目前適應(yīng)預(yù)訓(xùn)練模

    2024年01月17日
    瀏覽(28)
  • [論文筆記]P-tuning

    今天帶來第四篇大模型微調(diào)的論文筆記GPT Understands, Too。 本篇工作提出的方法是P-tuning,使用可訓(xùn)練的連續(xù)提示嵌入,使GPT在NLU上表現(xiàn)比傳統(tǒng)的全量微調(diào)的GPT更好的效果。P-tuning還提高了BERT在少樣本和監(jiān)督設(shè)定下的性能,大幅減少了提示工程的需求。 根據(jù)訓(xùn)練目標(biāo),預(yù)訓(xùn)練語

    2024年02月07日
    瀏覽(14)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包