国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Diffusion-LM Improves Controllable Text Generation 擴散語言模型改善可控文本生成

這篇具有很好參考價值的文章主要介紹了Diffusion-LM Improves Controllable Text Generation 擴散語言模型改善可控文本生成。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

Diffusion-LM Improves Controllable Text Generation 擴散語言模型改善可控文本生成
論文鏈接:https://arxiv.org/abs/2205.14217
代碼鏈接:https://github.com/XiangLi1999/Diffusion-LM

一、簡介

無需重訓模型控制語言模型的表現(xiàn)是自然語言生成(NLG)的一個重要開放問題,近期工作已經(jīng)在簡單句子屬性控制生成上取得了一定的進展,但是在復雜的、細粒度的控制上的進展還遠遠不夠。作者指的更復雜,更細粒度的控制:
Diffusion-LM Improves Controllable Text Generation 擴散語言模型改善可控文本生成
為了解決這一挑戰(zhàn),我們提出了一個基于連續(xù)擴散模型的非自回歸語言模型,我們稱之為Diffusion-LM。Diffusion-LM是在連續(xù)空間上使用擴散模型,將隨機噪聲逐漸還原成詞向量。連續(xù)的層級式的中間隱空間可以通過簡單的梯度回傳方法實現(xiàn)復雜的可控生成任務(wù)。實驗表明,Diffusion-LM在六個細粒度控制任務(wù)上取得領(lǐng)先的效果。

傳統(tǒng)的自回歸語言模型可以生成高質(zhì)量文本,但是生成的結(jié)果一般都是隨機不可控的,現(xiàn)實情況下往往需要生成可控的文本。一個最直接的方法就是通過有標簽數(shù)據(jù)微調(diào)語言模型,但是這種方法針對不同的可控任務(wù)需要不同的標注數(shù)據(jù)和重訓模型。所以針對這一缺陷,應(yīng)運而生了即插即用式的可控文本生成任務(wù)。

擴散模型已經(jīng)在圖像生成上取得了優(yōu)秀的性能,但是很少使用在NLP領(lǐng)域,主要是因為文本模態(tài)的離散性。為了解決這一問題,文章提出在隱空間上進行擴散模型的加噪和去噪,在隱空間和詞向量之間采用round的方法,將隱空間估計到詞向量空間。

實驗證明使用擴散模型進行即插即用的文本可控生成可以取得更優(yōu)的性能,并且支持更多復雜的可控生成任務(wù)。

至于選擇擴散模型的原因,根據(jù)文章總結(jié)為以下幾點:

  1. 中間變量的連續(xù)且分層的特性使得簡單的梯度算法就可以實現(xiàn)復雜且可控的生成任務(wù)。

  2. 由于文本通常是離散的,因此運用離散的擴散模型具有極大的困難,因此作者對標準的擴散模型進行了改造: 在傳統(tǒng)的步驟上添加了embedding step和rounding step,設(shè)計了學習embedding的訓練目標,并且提出了提升rounding表現(xiàn)的方法。

  3. 之前的控制生成方法,通?;谧曰貧w語言模型,只能從左至右生成。這導致PPLM無法修復在之前步中的錯誤。

二、相關(guān)工作

文本領(lǐng)域擴散模型。擴散模型被證明在連續(xù)空間上有較好的生成效果,但是文本模態(tài)天然的與圖像、音頻不同,是連續(xù)的語言符號表征的語義信息。為了處理離散數(shù)據(jù),之前的工作有研究離散狀態(tài)空間的擴散模型,方法是在離散數(shù)據(jù)上采用一個破壞過程(每個token有一定概率被刪除或者被替換)。本文聚焦在文本領(lǐng)域上的連續(xù)擴散模型,文章提出的Diffusion-LM在連續(xù)的隱空間上進行擴散過程,其可以有效地使用梯度回傳方法進行可控生成。
自回歸和非自回歸語言模型。很多的預訓練語言模型都是從左至右自回歸形式的,如GPT-3、PaLM等,固定的生成順序?qū)拗瓶煽厣傻撵`活性,尤其那種左右上下文全局都相關(guān)的可控任務(wù)。因為自回歸模型無法利用右側(cè)上下文信息作為先驗條件,之前很多工作在這些控制任務(wù)上采用了特殊的訓練和解碼技術(shù),比如Qin等人提出了將離散的語言模型輸出到連續(xù)的變量中,然后采用右側(cè)上下文回傳梯度信息。Diffusion-LM的優(yōu)勢就是可以在復雜的、全局的句子屬性上以任意的分類器為條件進行可控生成。此外,還有一些在機器翻譯和語音識別任務(wù)上的非自回歸語言模型,但是這些方法都是對機器翻譯和語言識別任務(wù)定制的,都無法成功對語言建模。
即插即用的可控文本生成。即插即用的可控文本生成旨在將語言模型凍結(jié),使用勢函數(shù)引導輸出的方向。通過給定概率勢函數(shù)來衡量生成文本是否符合控制要求,并且生成的文本優(yōu)化的方向不僅要符合控制要求,還要保證語言的通順性。自回歸模型上已有很多種即插即用的可控生成方法。比如FUDGE通過每個token對整個句子的部分控制進行重新賦權(quán)重,根據(jù)候選挑選最好的控制結(jié)果,GeDi對每個token采用一個更小的語言模型微調(diào)來達到可控生成的效果。與本文方法最接近的方法是PPLM,它是一種在隱空間上升高梯度以滿足控制方向的一種方法,但是PPLM控制是根據(jù)自回歸語言模型方向從左到右的控制token的生成,所以在某些復雜的任務(wù)上表現(xiàn)并不理想,比如句法結(jié)構(gòu)控制,Diffusion-LM在隱空間上進行可控生成緩解了PPLM的這一問題。

三、問題陳述和背景

3.1、文本的生成模型和可控生成

文本生成是指從訓練好的語言模型 p l m ( w ) p_{lm}(\mathbf{w}) plm?(w)中取樣 w \mathbf{w} w的任務(wù),其中 w = [ w 1 ? ? ? w n ] \mathbf{w}= [w_1···w_n] w=[w1????wn?]是離散詞的序列, p l m ( w ) p_{lm}(\mathbf{w}) plm?(w)是詞的序列的概率分布??煽匚谋旧傻娜蝿?wù)是從條件分布 p ( w ∣ c ) p(\mathbf{w}|\mathbf{c}) p(wc)中抽取 w \mathbf{w} w,其中 c \mathbf{c} c表示一個控制變量。對于句法控制, c \mathbf{c} c可以是一個目標句法樹,而對于情感控制, c \mathbf{c} c可以是一個期望的情感標簽??煽厣傻哪繕耸巧蓾M足控制目標 c \mathbf{c} c w \mathbf{w} w。

考慮即插即用的可控生成設(shè)置:我們得到一個從大量未標注文本數(shù)據(jù)中訓練出來的語言模型 p l m ( w ) p_{lm}(\mathbf{w}) plm?(w),對于每個控制任務(wù),我們得到一個從較小數(shù)量的標注文本數(shù)據(jù)中訓練出來的分類器 p ( c ∣ w ) p(\mathbf{c}|\mathbf{w}) p(cw)(例如,對于句法控制,分類器是一個概率分析器)。目標是利用這兩個模型,通過貝葉斯規(guī)則 p ( w ∣ c ) ∝ p l m ( w ) ? p ( c ∣ w ) p(\mathbf{w}|\mathbf{c})∝p_{lm}(\mathbf{w})·p(\mathbf{c}|\mathbf{w}) p(wc)plm?(w)?p(cw)從后驗 p ( w ∣ c ) p(\mathbf{w}|\mathbf{c}) p(wc)中近似取樣。這里, p l m ( w ) p_{lm}(\mathbf{w}) plm?(w)鼓勵w流暢,而 p ( c ∣ w ) p(\mathbf{c}|\mathbf{w}) p(cw)鼓勵 w \mathbf{w} w履行控制。

3.2、自回歸語言模型

語言模型的典型方法將 p l m p_{lm} plm?納入自回歸左至右的mannar, p l m ( w ) = p l m ( w 1 ) ∏ i = 2 n p l m ( x i ∣ x < i ) p_{lm}(\mathbf{w})=p_{lm}(w_1)\prod_{i=2}^np_{lm}(x_i|x_{<i}) plm?(w)=plm?(w1?)i=2n?plm?(xi?x<i?) 。在這種情況下,文本生成被簡化為以迄今為止生成的部分序列為條件反復預測下一個token的任務(wù)。下一個token的預測 p l m ( x i ∣ x < i ) p_{lm}(x_i|x_{<i}) plm?(xi?x<i?)通常由Transformer架構(gòu)來參數(shù)化。

3.3、連續(xù)域的擴散模型

擴散模型是一個潛變量模型,它將數(shù)據(jù) x 0 ∈ R d \mathbf{x}_0∈\mathbb{R}^d x0?Rd建模為馬爾可夫鏈 x T . . . x 0 \mathbf{x}_T...\mathbf{x}_0 xT?...x0?,每個變量的維度是 d d d x T \mathbf{x}_T xT?是一個高斯分布。擴散模型對潛在變量 x T : 1 \mathbf{x}_{T:1} xT:1?的序列進行增量降噪,以接近目標數(shù)據(jù)分布的樣本(圖2)。初始狀態(tài) p θ ( x T ) ≈ N ( 0 , I ) p_θ(\mathbf{x}_T)≈\mathcal{N}(0,I) pθ?(xT?)N(0,I),每個降噪過渡 x t → x t ? 1 \mathbf{x}_t→\mathbf{x}_{t-1} xt?xt?1?由模型 p θ ( x t ? 1 ∣ x t ) = N ( x t ? 1 ; μ θ ( x t , t ) , Σ θ ( x t , t ) ) p_θ(\mathbf{x}_{t-1}|\mathbf{x}_t)=\mathcal{N}(\mathbf{x}_{t-1};μ_θ(\mathbf{x}_t,t),Σ_θ(\mathbf{x}_t,t)) pθ?(xt?1?xt?)=N(xt?1?;μθ?(xt?,t),Σθ?(xt?,t))來參數(shù)化。例如, μ θ μ_θ μθ? Σ θ Σ_θ Σθ?可以由U-Net或Tranformer來計算。
Diffusion-LM Improves Controllable Text Generation 擴散語言模型改善可控文本生成
為了訓練擴散模型,我們定義了一個構(gòu)建中間潛變量 x 1 : T \mathbf{x}_{1:T} x1:T?的前向過程。前向過程逐步向數(shù)據(jù) x 0 \mathbf{x}_0 x0?添加高斯噪聲,直到在擴散步驟 T T T,樣本 x T \mathbf{x}_T xT?是近似高斯的。每個過渡 x t ? 1 → x t \mathbf{x}_{t-1}→\mathbf{x}_t xt?1?xt?的參數(shù)為 q ( x t ∣ x t ? 1 ) = N ( x t ; 1 ? β t x t ? 1 , β t I ) q(\mathbf{x}_t|\mathbf{x}_{t-1})=\mathcal{N}(\mathbf{x}_t;\sqrt{1-β_t}\mathbf{x}_{t-1},β_t\mathbf{I}) q(xt?xt?1?)=N(xt?;1?βt? ?xt?1?,βt?I),其中超參數(shù) β t β_t βt?是在擴散步驟 t t t添加的噪聲量。這個前向過程 q q q的參數(shù)化不包含可訓練的參數(shù),允許我們定義一個訓練目標,包括根據(jù)預先定義的前向過程 q q q生成噪聲數(shù)據(jù),并訓練一個模型來逆轉(zhuǎn)這個過程并重建數(shù)據(jù)。
擴散模型的訓練是為了最大化數(shù)據(jù)的邊際似然 E x 0 ~ p d a t a [ log ? p θ ( x 0 ) ] \mathbb{E}_{\mathbf{x}_0~p_{data}}[\log p_θ(\mathbf{x}_0)] Ex0?pdata??[logpθ?(x0?)],目標是 log ? p θ ( x 0 ) \log p_θ(\mathbf{x}_0) logpθ?(x0?)的變分下限: L v l b ( x 0 ) = E q ( x 1 : T ∣ x 0 ) [ log ? q ( x T ∣ x 0 ) p θ ( x T ) + ∑ t = 2 T log ? q ( x t ? 1 ∣ x 0 , x t ) p θ ( x t ? 1 ∣ x t ) ? log ? p θ ( x 0 ∣ x 1 ) ] \mathcal{L}_{vlb}(\mathbf{x}_0)=\mathbb{E}_{q(\mathbf{x}_{1:T}|\mathbf{x}_0)}\left[\log\frac{q(\mathbf{x}_T|\mathbf{x}_0)}{p_{\theta}(\mathbf{x}_T)}+\sum_{t=2}^T\log\frac{q(\mathbf{x}_{t-1}|\mathbf{x}_0,\mathbf{x}_t)}{p_{\theta}(\mathbf{x}_{t-1}|\mathbf{x}_t)}-\log p_{\theta}(\mathbf{x}_0|\mathbf{x}_1)\right] Lvlb?(x0?)=Eq(x1:T?x0?)?[logpθ?(xT?)q(xT?x0?)?+t=2T?logpθ?(xt?1?xt?)q(xt?1?x0?,xt?)??logpθ?(x0?x1?)]然而,這個目標可能是不穩(wěn)定的,需要許多優(yōu)化技巧來穩(wěn)定。為了規(guī)避這個問題,Ho等人設(shè)計了一個簡單的代理目標,對 L v l b \mathcal{L}_{vlb} Lvlb?中的每個KL-散度項進行擴展和重新加權(quán),以獲得一個均方誤差損失,我們將其稱為 L s i m p l e \mathcal{L}_{simple} Lsimple?。對于第 t t t個KL散度,有 E q ( x 1 : T ∣ x 0 ) [ log ? q ( x t ? 1 ∣ x 0 , x t ) p θ ( x t ? 1 ∣ x t ) ] = E q ( x 1 : T ∣ x 0 ) [ 1 2 σ t 2 ∣ ∣ μ θ ( x t , t ) ? μ ^ ( x t , x 0 ) ∣ ∣ 2 ] + C \mathbb{E}_{q(\mathbf{x}_{1:T}|\mathbf{x}_0)}\left[\log\frac{q(\mathbf{x}_{t-1}|\mathbf{x}_0,\mathbf{x}_t)}{p_{\theta}(\mathbf{x}_{t-1}|\mathbf{x}_t)}\right]=\mathbb{E}_{q(\mathbf{x}_{1:T}|\mathbf{x}_0)}\left[\frac{1}{2\sigma^2_t}||\mu_{\theta}(\mathbf{x}_t,t)-\hat{\mu}(\mathbf{x}_t,\mathbf{x}_0)||^2\right]+C Eq(x1:T?x0?)?[logpθ?(xt?1?xt?)q(xt?1?x0?,xt?)?]=Eq(x1:T?x0?)?[2σt2?1?μθ?(xt?,t)?μ^?(xt?,x0?)2]+C其中 μ ^ ( x t , x 0 ) \hat{\mu}(\mathbf{x}_t,\mathbf{x}_0) μ^?(xt?,x0?)是后驗 q ( x t ? 1 ∣ x 文章來源地址http://www.zghlxwxcb.cn/news/detail-405562.html

到了這里,關(guān)于Diffusion-LM Improves Controllable Text Generation 擴散語言模型改善可控文本生成的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 【文生圖】DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Driven Generation

    【文生圖】DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Driven Generation

    論文地址:https://arxiv.org/abs/2208.12242v1 項目地址:https://dreambooth.github.io/ DreamBooth 主要的工作目的是實現(xiàn)保留主體的細致特征的情況下使用文本對其進行環(huán)境等編輯。整體方法為給定一個主體的3-5個圖像和文本提示作為輸入,微調(diào)預訓練的文生圖模型(Imagen,但不限于特定模型

    2024年02月05日
    瀏覽(18)
  • tune a video:one-shot tuning of image diffusion models for text-to-video generation

    tune a video:one-shot tuning of image diffusion models for text-to-video generation

    【Diffusion Models】新加坡國立大學、騰訊強強聯(lián)手Tune-A-Video:One-Shot微調(diào)圖像擴散模型用于文本到圖像的生成!_嗶哩嗶哩_bilibili 【Diffusion Models】新加坡國立大學、騰訊強強聯(lián)手Tune-A-Video:One-Shot微調(diào)圖像擴散模型用于文本到圖像的生成!共計2條視頻,包括:[論文代碼閱讀]T

    2023年04月11日
    瀏覽(23)
  • 【論文筆記】End-to-End Diffusion Latent Optimization Improves Classifier Guidance

    【論文筆記】End-to-End Diffusion Latent Optimization Improves Classifier Guidance

    Classifier guidance為圖像生成帶來了控制,但是需要訓練新的噪聲感知模型(noise-aware models)來獲得準確的梯度,或使用最終生成的一步去噪近似,這會導致梯度錯位(misaligned gradients)和次優(yōu)控制(sub-optimal control)。 梯度錯位(misaligned gradients):通過噪聲感知模型指導生成模型時,兩個

    2024年02月02日
    瀏覽(21)
  • 關(guān)于Text Generation的GenerationCoinfig參數(shù)

    在使用“Text Generation”時會用到.generation方法,這里記錄一下所有可能用到的參數(shù)。 首先需要一個 起始行的參數(shù) ,即給定一個主題。如:“|endoftext|” max_length :即限定生成的最大長度,這里的長度指的token的長度。并且是最大的長度,在這個長度之內(nèi)的其他長度的句子也是

    2024年02月08日
    瀏覽(18)
  • Text-to-3D Generation

    Text-to-3D Generation

    1)《Zero-shot text-guided object generation with dream fields》【CVPR 2023】 Project: https://ajayj.com/dreamfields Device: 未公布 前置知識: 偽影(Artifacts) 是指本不存在卻出現(xiàn)在的影像片子上的一種成像。在圖像生成領(lǐng)域中,可以理解是合成圖片中,不自然的、反常的、能讓人看出是人為處理過

    2024年02月06日
    瀏覽(18)
  • text-generation-webui大模型部署

    text-generation-webui是一個挺好用的大模型部署UI,提供了很多便于交互的接口,安裝部署好之后將model放置到對應(yīng)的位置即可在網(wǎng)頁訪問,若是在服務(wù)器部署也可以通過ssh端口轉(zhuǎn)發(fā)至公網(wǎng)服務(wù)器進行訪問。 其中, 模型的下載 可參考這個教程,比較有效的是利用鏡像網(wǎng)站和下載腳

    2024年04月14日
    瀏覽(52)
  • 大模型 web ui 界面 text-generation-webui

    大模型 web ui 界面 text-generation-webui

    目錄 前言 web ui ValueError: When localhost is not accessible 使用?text-generation-webui 生成大模型界面,這個是專門用于文本對話生成的 web ui 界面 GitHub - oobabooga/text-generation-webui: A Gradio web UI for Large Language Models. Supports transformers, GPTQ, AWQ, EXL2, llama.cpp (GGUF), Llama models. ?克隆或下載到本地,

    2024年04月26日
    瀏覽(23)
  • text-generation-Webui-AI本地部署踩坑記錄

    text-generation-Webui-AI本地部署踩坑記錄

    下載源碼 text-generation-Webui 下載模型 chinese-alpaca-2-7b-hf下載完成的模型需要放置在項目下的models目錄下 安裝conda Free Download | Anaconda 安裝python ? python 設(shè)置環(huán)境變量 下載最新的顯卡驅(qū)動 英偉達2060顯卡驅(qū)動需要與自己顯卡匹配 查看顯卡驅(qū)動版本 創(chuàng)建conda環(huán)境 初始化 激活 安裝

    2024年02月02日
    瀏覽(49)
  • 第十一篇-Tesla P40+Text-Generation-Webui

    這里的安裝需要訪問github,注意自己網(wǎng)絡(luò)可以訪問github, 如果不能或者超時請重試 或者改用相應(yīng)國內(nèi)github鏡像 把下載好的模型文件夾放到models目錄下 通過不同文件夾區(qū)別模型 可以創(chuàng)建軟連接 https://github.com/oobabooga/text-generation-webui 在安裝text-generation-webui時如果出現(xiàn)cmake,gcc

    2024年02月09日
    瀏覽(19)
  • LLMs:Text generation web UI/text-generation-webui(一款幫助LLMs實現(xiàn)本地化部署和微調(diào)的GUI界面式工具,非CLI式)的簡介、安裝、使用方法之詳細攻略

    LLMs:Text generation web UI/text-generation-webui(一款幫助LLMs實現(xiàn)本地化部署和模型微調(diào)的GUI界面式工具,非CLI式)的簡介、安裝、使用方法之詳細攻略 目錄 Text generation web UI的簡介 Text generation web UI的安裝 第一步、安裝程序

    2024年02月07日
    瀏覽(26)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包