国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

論文筆記 | 谷歌 Soft Prompt Learning ,Prefix-Tuning的 -> soft promt -> p tuning v2

這篇具有很好參考價值的文章主要介紹了論文筆記 | 谷歌 Soft Prompt Learning ,Prefix-Tuning的 -> soft promt -> p tuning v2。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

論文筆記 | 谷歌 Soft Prompt Learning

ptuning -> Prefix-Tuning?-> soft promt -> p tuning v2

"The Power of Scale for Parameter-Efficient Prompt Tuning" EMNLP 2021 Google Brain

人能理解的不一定是模型需要的,所以不如讓模型自己訓(xùn)練所需的prompt。

External Links:

  • 論文作者:Brian Lester,?Rami Al-Rfou
  • Google Blog: "Guiding Frozen Language Models with Learned Soft Prompts"
  • Github Repo
  • Jeff Dean 的推文

Motivation

As models become larger, storing and serving a tuned copy of the model for each downstream task becomes impractical.
  • 基于prompt的大模型application范式非常有前景,但是hand-craft prompts費時費力,受長度限制,且不一定效果好。
  • 因此提出tunable soft prompts,使用隱式的"learnable vectors"代替顯式的"tokens"作為prompts。
  • soft prompts相比于比離散的文本prompt,可以蘊含更質(zhì)密的信息 (成千上萬個examples)

Approach

論文筆記 | 谷歌 Soft Prompt Learning ,Prefix-Tuning的 -> soft promt -> p tuning v2

Prompts are typically composed of a task description and/or several canonical examples. Prompt tuning only requires storing a small task-specific prompt for each task, and enables mixed-task inference using the original pretrained model

大致流程:

  • 每個任務(wù)訓(xùn)練一個prompt vector
  • prompt的初始化是從vocabulary embedding采樣
  • 初始化prompt?論文筆記 | 谷歌 Soft Prompt Learning ,Prefix-Tuning的 -> soft promt -> p tuning v2as a fixed-length sequence of vectors (e.g., 20 tokens long), 然后和輸入?論文筆記 | 谷歌 Soft Prompt Learning ,Prefix-Tuning的 -> soft promt -> p tuning v2拼接,交給模型。根據(jù)模型生成的內(nèi)容?論文筆記 | 谷歌 Soft Prompt Learning ,Prefix-Tuning的 -> soft promt -> p tuning v2?計算loss,反向傳播更新 prompt vectors,而不更新模型的參數(shù)。

?

?

?

一些小細節(jié):

  • 對T5的實驗進行了特別設(shè)計:
    • Span Corruption: T5原本的模型
    • Span Corruption + Sentinel: 在prompt前加入sentinel,以適應(yīng)T5的預(yù)訓(xùn)練模式
    • LM Adaptation: 用語言模型對T5做了二次預(yù)訓(xùn)練
  • JAX-based T5X framewok
  • prompt的長度5~100
  • 大學(xué)習(xí)率(0.3)

和Adapter Learning的區(qū)別:

Adapters modify the actual function that acts on the input representation, parameterized by the neural network, by allowing the rewriting of activations at any given layer. Prompt tuning modifies behavior by leaving the function fixed and adding new input representations that can affect how subsequent input is processed.

和前作們的區(qū)別:

  • 把Prefix-Tuning的reparametrization去掉了,以及只在encoder的輸入前放soft prompts
  • 不使用P-tuning中prompt的穿插放置方式

Results

  • Benchmark:SuperGLUE?(8個NLU任務(wù),沒有生成類任務(wù))
prompt tuning beats GPT-3 prompt design by a large margin, with prompt tuned T5-Small matching GPT-3 XL (over 16 times larger), and prompt-tuned T5-Large beating GPT-3 175B (over 220 times larger).
論文筆記 | 谷歌 Soft Prompt Learning ,Prefix-Tuning的 -> soft promt -> p tuning v2

Prompt tuning比hand-craft prompts好,但在小模型上仍不如model tuning

  • 消融實驗:prompt長度在20就很好;用vocab sampled embedding初始化就很好;用LM objective預(yù)訓(xùn)練的模型更適合prompt learning

論文筆記 | 谷歌 Soft Prompt Learning ,Prefix-Tuning的 -> soft promt -> p tuning v2

  • 與prompt learning前作們相比,需要訓(xùn)練的參數(shù)更少

論文筆記 | 谷歌 Soft Prompt Learning ,Prefix-Tuning的 -> soft promt -> p tuning v2

  • prompt tuning相比model tuning,更不容易過擬合

論文筆記 | 谷歌 Soft Prompt Learning ,Prefix-Tuning的 -> soft promt -> p tuning v2

在cross-domain數(shù)據(jù)集進行訓(xùn)練和zero-shot測試

  • 訓(xùn)練N種prompt表示,就可以做Prompt Ensembling(類似于bag of models),用來提高性能。

論文筆記 | 谷歌 Soft Prompt Learning ,Prefix-Tuning的 -> soft promt -> p tuning v2文章來源地址http://www.zghlxwxcb.cn/news/detail-500867.html

  • 通過分析prompt vector在embedding空間的近鄰可以發(fā)現(xiàn),學(xué)到的prompt和任務(wù)/數(shù)據(jù)集有很強的關(guān)聯(lián)。

延伸閱讀

  • Prompt learning前作:?Prefix Tuning,?WARP,?P-Tuning,?soft words
  • automatic prompt generation:?Jiang et al., 2020;?Shin et al., 2020
  • Task Adaptors:?Houlsby et al., 2019,?MAD-X
  • prompt tuning experiments in?FLAN
  • the?BigScience T0 model

到了這里,關(guān)于論文筆記 | 谷歌 Soft Prompt Learning ,Prefix-Tuning的 -> soft promt -> p tuning v2的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 【LLM微調(diào)范式1】Prefix-Tuning: Optimizing Continuous Prompts for Generation

    【LLM微調(diào)范式1】Prefix-Tuning: Optimizing Continuous Prompts for Generation

    論文標題:Prefix-Tuning: Optimizing Continuous Prompts for Generation 論文作者:Xiang Lisa Li, Percy Liang 論文原文:https://arxiv.org/abs/2101.00190 論文出處:ACL 2021 論文被引:1588(2023/10/14) 論文代碼:https://github.com/XiangLi1999/PrefixTuning 傳統(tǒng)的預(yù)訓(xùn)練+微調(diào)范式的問題:下游任務(wù)微調(diào)時,需要更新

    2024年02月07日
    瀏覽(15)
  • Prefix-tuning、Adapter、LLaMA-Adapter的流程圖與偽代碼實現(xiàn)

    Prefix-tuning、Adapter、LLaMA-Adapter的流程圖與偽代碼實現(xiàn)

    流程圖: 代碼: 流程圖: 代碼: 流程圖: 代碼:

    2024年02月11日
    瀏覽(19)
  • 【提示學(xué)習(xí)論文六】MaPLe: Multi-modal Prompt Learning論文原理

    【提示學(xué)習(xí)論文六】MaPLe: Multi-modal Prompt Learning論文原理

    這篇文章于2023年發(fā)表在CVPR(Conference on Computer Vision and Pattern Recognition),作者是Muhammad Uzair Khattak,Hanoona Rasheed,Muhammad Maaz,Salman Khan,F(xiàn)ahad Shahbaz Khan。 研究發(fā)現(xiàn)Clip的問題:在單個分支(語言或視覺)中使用prompt來調(diào)整表示是次優(yōu)的,它不能在下游任務(wù)上靈活地動態(tài)調(diào)整兩個

    2024年01月22日
    瀏覽(45)
  • 論文解讀:(UPL)Unsupervised Prompt Learning for Vision-Language Models

    論文解讀:(UPL)Unsupervised Prompt Learning for Vision-Language Models

    存在的問題 之前的來自目標數(shù)據(jù)集的標記數(shù)據(jù)(有監(jiān)督學(xué)習(xí))可能會限制可伸縮性。 動機 通過無監(jiān)督提示學(xué)習(xí)(UPL)方法,以避免提示工程,同時提高類clip視覺語言模型的遷移性能。 主張top-k而不是top-p 注:top-k是指挑選概率最大的k個,top-p是指挑選預(yù)測概率大于p的那些數(shù)據(jù) 看

    2024年04月23日
    瀏覽(69)
  • 提示學(xué)習(xí)soft prompt淺嘗,啟發(fā)了p-tuing

    提示學(xué)習(xí)soft prompt淺嘗,啟發(fā)了p-tuing

    在高質(zhì)量標注數(shù)據(jù)稀缺的工業(yè)界來說,少樣本學(xué)習(xí)或者零樣本學(xué)習(xí)的方法特別受歡迎,后面出現(xiàn)過一些少樣本和零樣本的方法,例如 對比學(xué)習(xí)和prompt 等,主流prompt的工作分為 離散型 和連續(xù)型模板。離散型主要還是 插入bert特殊的token 為主,連續(xù)型則是 插入數(shù)字token 。 離散

    2024年02月09日
    瀏覽(24)
  • 大模型PEFT技術(shù)原理(一):BitFit、Prefix Tuning、Prompt Tuning

    大模型PEFT技術(shù)原理(一):BitFit、Prefix Tuning、Prompt Tuning

    ? ? ? ?隨著預(yù)訓(xùn)練模型的參數(shù)越來越大,尤其是175B參數(shù)大小的GPT3發(fā)布以來,讓很多中小公司和個人研究員對于大模型的 全量微調(diào) 望而卻步,近年來研究者們提出了各種各樣的參數(shù)高效遷移學(xué)習(xí)方法(Parameter-efficient Transfer Learning),即固定住Pretrain Language model(PLM)的大部

    2024年01月25日
    瀏覽(48)
  • 大模型參數(shù)高效微調(diào)技術(shù)原理綜述(二)-BitFit、Prefix Tuning、Prompt Tuning

    大模型參數(shù)高效微調(diào)技術(shù)原理綜述(二)-BitFit、Prefix Tuning、Prompt Tuning

    隨著,ChatGPT 迅速爆火,引發(fā)了大模型的時代變革。然而對于普通大眾來說,進行大模型的預(yù)訓(xùn)練或者全量微調(diào)遙不可及。由此,催生了各種參數(shù)高效微調(diào)技術(shù),讓科研人員或者普通開發(fā)者有機會嘗試微調(diào)大模型。 因此,該技術(shù)值得我們進行深入分析其背后的機理,本系列大

    2024年02月09日
    瀏覽(19)
  • 【論文閱讀筆記】4篇Disentangled representation learning用于圖像分割的論文

    【論文閱讀筆記】4篇Disentangled representation learning用于圖像分割的論文

    4篇應(yīng)用解耦表示學(xué)習(xí)的文章,這里只關(guān)注如何解耦,更多細節(jié)不關(guān)注,簡單記錄一下。 Chen C, Dou Q, Jin Y, et al. Robust multimodal brain tumor segmentation via feature disentanglement and gated fusion[C]//Medical Image Computing and Computer Assisted Intervention–MICCAI 2019: 22nd International Conference, Shenzhen, China, O

    2024年01月17日
    瀏覽(37)
  • 【論文筆記】基于預(yù)訓(xùn)練模型的持續(xù)學(xué)習(xí)(Continual Learning)(增量學(xué)習(xí),Incremental Learning)

    【論文筆記】基于預(yù)訓(xùn)練模型的持續(xù)學(xué)習(xí)(Continual Learning)(增量學(xué)習(xí),Incremental Learning)

    論文鏈接: Continual Learning with Pre-Trained Models: A Survey 代碼鏈接: Github: LAMDA-PILOT 持續(xù)學(xué)習(xí) (Continual Learning, CL)旨在使模型在學(xué)習(xí)新知識的同時能夠保留原來的知識信息了,然而現(xiàn)實任務(wù)中,模型并不能很好地保留原始信息,這也就是常說的 災(zāi)害性遺忘 (Catastrophic forgetting)

    2024年04月26日
    瀏覽(23)
  • 【論文閱讀筆記】Contrastive Learning with Stronger Augmentations

    基于提供的摘要,該論文的核心焦點是在對比學(xué)習(xí)領(lǐng)域提出的一個新框架——利用強數(shù)據(jù)增強的對比學(xué)習(xí)(Contrastive Learning with Stronger Augmentations,簡稱CLSA)。以下是對摘要的解析: 問題陳述: 表征學(xué)習(xí)(representation learning)已在對比學(xué)習(xí)方法的推動下得到了顯著發(fā)展。 當(dāng)前

    2024年02月19日
    瀏覽(26)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包