国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

論文閱讀_擴(kuò)散模型_DM

這篇具有很好參考價(jià)值的文章主要介紹了論文閱讀_擴(kuò)散模型_DM。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

英文名稱: Deep Unsupervised Learning using Nonequilibrium Thermodynamics
中文名稱: 使用非平衡熱力學(xué)原理的深度無(wú)監(jiān)督學(xué)習(xí)
論文地址: http://arxiv.org/abs/1503.03585
代碼地址: https://github.com/Sohl-Dickstein/Diffusion-Probabilistic-Models
時(shí)間: 2015-11-18
作者: Jascha Sohl-Dickstein, 斯坦福大學(xué)
引用量: 1813

讀后感

論文目標(biāo)是建立靈活且易用數(shù)據(jù)生成模型。它利用非平衡統(tǒng)計(jì)物理學(xué)原理:通過(guò)擴(kuò)散過(guò)程(少量加噪)系統(tǒng)地、緩慢地破壞數(shù)據(jù)分布中的結(jié)構(gòu);然后,學(xué)習(xí)反向擴(kuò)散過(guò)程,恢復(fù)數(shù)據(jù)結(jié)構(gòu)。

介紹

擴(kuò)散模型與變分模型

擴(kuò)散模型與變分模型原理類似,都是將圖片拆成一系列高斯分布的均值和方差,而擴(kuò)散模型是一個(gè)逐步變化的過(guò)程,主要差別如下:

  • 原理不同:擴(kuò)散模型使用物理學(xué)、準(zhǔn)靜態(tài)過(guò)程和退火采樣的思想。由于任何平滑目標(biāo)分布都存在擴(kuò)散過(guò)程,因此理論上該方法可以捕獲任意形式的數(shù)據(jù)分布。
  • 展示了用簡(jiǎn)單的乘法,將一個(gè)分布逐步轉(zhuǎn)換為另一分布的過(guò)程。
  • 解決了推理模型和生成模型之間目標(biāo)的不對(duì)稱性,將正向(推理)過(guò)程限制為簡(jiǎn)單的函數(shù)形式,反向(生成)過(guò)程將具有相同的函數(shù)形式。
  • 可訓(xùn)練具有數(shù)**千層(時(shí)間步)**的模型。
  • 精細(xì)控制每層中熵產(chǎn)生的上限和下限。

方法

論文閱讀_擴(kuò)散模型_DM,論文閱讀,論文閱讀

請(qǐng)記住圖中這些符號(hào),很多后續(xù)文章都延用了這些符號(hào)的定義。

向前軌跡

其中藍(lán)色是擴(kuò)散過(guò)程,從左往右看,總共T步,每步加一點(diǎn)高斯噪聲,將瑞士卷圖擴(kuò)散成了高斯分布,擴(kuò)展過(guò)程設(shè)為q。每步都根據(jù)上一步數(shù)據(jù)而來(lái):
q ( x ( 0 ? T ) ) = q ( x ( 0 ) ) ∏ t = 1 T q ( x ( t ) ∣ x ( t ? 1 ) ) q\left(\mathbf{x}^{(0 \cdots T)}\right)=q\left(\mathbf{x}^{(0)}\right) \prod_{t=1}^{T} q\left(\mathbf{x}^{(t)} \mid \mathbf{x}^{(t-1)}\right) q(x(0?T))=q(x(0))t=1T?q(x(t)x(t?1))

反向軌跡

中間紅色部分是擴(kuò)散的逆過(guò)程,從右往左看,圖片逐步恢復(fù),恢復(fù)過(guò)程設(shè)為p;在訓(xùn)練過(guò)程中,通過(guò)學(xué)習(xí)高斯擴(kuò)散的逆過(guò)程,使數(shù)據(jù)轉(zhuǎn)換回原分布,從而生成數(shù)據(jù)。
p ( x ( 0 ? T ) ) = p ( x ( T ) ) ∏ t = 1 T p ( x ( t ? 1 ) ∣ x ( t ) ) p\left(\mathbf{x}^{(0 \cdots T)}\right)=p\left(\mathbf{x}^{(T)}\right) \prod_{t=1}^{T} p\left(\mathbf{x}^{(t-1)} \mid \mathbf{x}^{(t)}\right) p(x(0?T))=p(x(T))t=1T?p(x(t?1)x(t))
最后一行展示了反向擴(kuò)散過(guò)程的漂移項(xiàng)。fμ (x(t), t) 是高斯逆馬爾可夫轉(zhuǎn)移的均值和協(xié)方差的函數(shù)。

擴(kuò)散的原理是通過(guò)馬爾可夫鏈逐漸將一種分布轉(zhuǎn)換為另一種分布。最終,估計(jì)概率分布的任務(wù)簡(jiǎn)化為對(duì)高斯序列的均值和協(xié)方差函數(shù)的回歸任務(wù)(這里的0狀態(tài)指的是原始圖,T狀態(tài)指高斯分布圖);由于擴(kuò)散鏈中的每個(gè)步驟都具有可分析評(píng)估的概率(對(duì)比正向和反向變化中每一步數(shù)據(jù)的相似度),因此也可以對(duì)整個(gè)鏈進(jìn)行分析評(píng)估。

模型概率

計(jì)算將圖像恢復(fù)成原圖的概率,可拆解成每一步變化的累積。
p ( x ( 0 ) ) = ∫ d x ( 1 ? T ) p ( x ( 0 ? T ) ) q ( x ( 1 ? T ) ∣ x ( 0 ) ) q ( x ( 1 ? T ) ∣ x ( 0 ) ) = ∫ d x ( 1 ? T ) q ( x ( 1 ? T ) ∣ x ( 0 ) ) p ( x ( 0 ? T ) ) q ( x ( 1 ? T ) ∣ x ( 0 ) ) = ∫ d x ( 1 ? T ) q ( x ( 1 ? T ) ∣ x ( 0 ) ) p ( x ( T ) ) ∏ t = 1 T p ( x ( t ? 1 ) ∣ x ( t ) ) q ( x ( t ) ∣ x ( t ? 1 ) ) \begin{aligned} p\left(\mathbf{x}^{(0)}\right)= & \int d \mathbf{x}^{(1 \cdots T)} p\left(\mathbf{x}^{(0 \cdots T)}\right) \frac{q\left(\mathbf{x}^{(1 \cdots T)} \mid \mathbf{x}^{(0)}\right)}{q\left(\mathbf{x}^{(1 \cdots T)} \mid \mathbf{x}^{(0)}\right)} \\ = & \int d \mathbf{x}^{(1 \cdots T)} q\left(\mathbf{x}^{(1 \cdots T)} \mid \mathbf{x}^{(0)}\right) \frac{p\left(\mathbf{x}^{(0 \cdots T)}\right)}{q\left(\mathbf{x}^{(1 \cdots T)} \mid \mathbf{x}^{(0)}\right)} \\ = & \int d \mathbf{x}^{(1 \cdots T)} q\left(\mathbf{x}^{(1 \cdots T)} \mid \mathbf{x}^{(0)}\right) \\ & p\left(\mathbf{x}^{(T)}\right) \prod_{t=1}^{T} \frac{p\left(\mathbf{x}^{(t-1)} \mid \mathbf{x}^{(t)}\right)}{q\left(\mathbf{x}^{(t)} \mid \mathbf{x}^{(t-1)}\right)} \end{aligned} p(x(0))===?dx(1?T)p(x(0?T))q(x(1?T)x(0))q(x(1?T)x(0))?dx(1?T)q(x(1?T)x(0))q(x(1?T)x(0))p(x(0?T))?dx(1?T)q(x(1?T)x(0))p(x(T))t=1T?q(x(t)x(t?1))p(x(t?1)x(t))??

訓(xùn)練

具體方法是計(jì)算熵 H 和 KL 散度。其推導(dǎo)與變分貝葉斯方法中對(duì)數(shù)似然界限的推導(dǎo)類似。DK散度描述了每一時(shí)間步數(shù)據(jù)分布的差異,熵描述了數(shù)據(jù)的混亂程度。
L ≥ K K = ? ∑ t = 2 T ∫ d x ( 0 ) d x ( t ) q ( x ( 0 ) , x ( t ) ) . D K L ( q ( x ( t ? 1 ) ∣ x ( t ) , x ( 0 ) ) ∥ p ( x ( t ? 1 ) ∣ x ( t ) ) ) + H q ( X ( T ) ∣ X ( 0 ) ) ? H q ( X ( 1 ) ∣ X ( 0 ) ) ? H p ( X ( T ) ) . \begin{aligned} L & \geq K \\ K= & -\sum_{t=2}^{T} \int d \mathbf{x}^{(0)} d \mathbf{x}^{(t)} q\left(\mathbf{x}^{(0)}, \mathbf{x}^{(t)}\right) . \\ & D_{K L}\left(q\left(\mathbf{x}^{(t-1)} \mid \mathbf{x}^{(t)}, \mathbf{x}^{(0)}\right) \| p\left(\mathbf{x}^{(t-1)} \mid \mathbf{x}^{(t)}\right)\right) \\ & +H_{q}\left(\mathbf{X}^{(T)} \mid \mathbf{X}^{(0)}\right)-H_{q}\left(\mathbf{X}^{(1)} \mid \mathbf{X}^{(0)}\right)-H_{p}\left(\mathbf{X}^{(T)}\right) . \end{aligned} LK=?K?t=2T?dx(0)dx(t)q(x(0),x(t)).DKL?(q(x(t?1)x(t),x(0))p(x(t?1)x(t)))+Hq?(X(T)X(0))?Hq?(X(1)X(0))?Hp?(X(T)).?
設(shè)置擴(kuò)散率 βt
熱力學(xué)中,在平衡分布之間移動(dòng)時(shí)所采取的時(shí)間表決定了損失多少自由能。簡(jiǎn)單地說(shuō),就是如何設(shè)置每一步變化的大小。一般情況下,第一步β設(shè)成一個(gè)很小的常數(shù),以防過(guò)擬合,然后2-T步逐步擴(kuò)大。將在之后的DDPM中詳述。

乘以分布計(jì)算后驗(yàn)

對(duì)大多數(shù)模型而言,乘以分布計(jì)算量大,而在擴(kuò)散模型中則比較簡(jiǎn)單,第二個(gè)分布可以被視為擴(kuò)散過(guò)程中每個(gè)步驟的小擾動(dòng)。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-695437.html

到了這里,關(guān)于論文閱讀_擴(kuò)散模型_DM的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • CVPR2023最新論文 (含語(yǔ)義分割、擴(kuò)散模型、多模態(tài)、預(yù)訓(xùn)練、MAE等方向)

    CVPR2023最新論文 (含語(yǔ)義分割、擴(kuò)散模型、多模態(tài)、預(yù)訓(xùn)練、MAE等方向)

    2023 年 2 月 28 日凌晨,CVPR 2023 頂會(huì)論文接收結(jié)果出爐! CVPR 2023 收錄的工作中 \\\" 擴(kuò)散模型、多模態(tài)、預(yù)訓(xùn)練、MAE \\\" 相關(guān)工作的數(shù)量會(huì)顯著增長(zhǎng)。 Delivering Arbitrary-Modal Semantic Segmentation 論文/Paper: http://arxiv.org/pdf/2303.01480 代碼/Code: None Conflict-Based Cross-View Consistency for Semi-Supervised

    2023年04月08日
    瀏覽(30)
  • [論文精讀] 使用擴(kuò)散模型生成真實(shí)感視頻 - 【李飛飛團(tuán)隊(duì)新作,文生視頻 新基準(zhǔn)】

    [論文精讀] 使用擴(kuò)散模型生成真實(shí)感視頻 - 【李飛飛團(tuán)隊(duì)新作,文生視頻 新基準(zhǔn)】

    論文導(dǎo)讀: 論文背景:2023年12月11日,AI科學(xué)家李飛飛團(tuán)隊(duì)與谷歌合作,推出了視頻生成模型W.A.L.T(Window Attention Latent Transformer)——一個(gè)在共享潛在空間中訓(xùn)練圖像和視頻生成的、基于Transformer架構(gòu)的擴(kuò)散模型。李飛飛是華裔女科學(xué)家、世界頂尖的AI專家,現(xiàn)為美國(guó)國(guó)家工程院

    2024年02月03日
    瀏覽(34)
  • NeurIPS上新 | 從擴(kuò)散模型、腦電表征,到AI for Science,微軟亞洲研究院精選論文

    NeurIPS上新 | 從擴(kuò)散模型、腦電表征,到AI for Science,微軟亞洲研究院精選論文

    編者按:歡迎閱讀“科研上新”欄目!“科研上新”匯聚了微軟亞洲研究院最新的創(chuàng)新成果與科研動(dòng)態(tài)。在這里,你可以快速瀏覽研究院的亮點(diǎn)資訊,保持對(duì)前沿領(lǐng)域的敏銳嗅覺(jué),同時(shí)也能找到先進(jìn)實(shí)用的開(kāi)源工具。 本期“科研上新”將為大家?guī)?lái)多篇微軟亞洲研究院在 N

    2024年02月03日
    瀏覽(23)
  • High-Resolution Image Synthesis with Latent Diffusion Models 穩(wěn)定擴(kuò)散模型論文筆記

    High-Resolution Image Synthesis with Latent Diffusion Models 穩(wěn)定擴(kuò)散模型論文筆記

    一、研究現(xiàn)狀 ? ? ? ?早期圖像生成方法主要是變分自動(dòng)編碼器(Variational Autoencoders, VAEs),該算法利用編碼器和解碼器以及變分推斷的方法學(xué)習(xí)隱空間到真實(shí)圖像空間的映射從而完成圖像的生成。其優(yōu)勢(shì)是特征空間可遷移并且訓(xùn)練較為穩(wěn)定,但是不容易進(jìn)行模型評(píng)估,當(dāng)輸入

    2024年02月20日
    瀏覽(26)
  • DALL·E 2(內(nèi)含擴(kuò)散模型介紹)【論文精讀】Hierarchical Text-ConditionalImage Generation with CLIP Latents

    DALL·E 2(內(nèi)含擴(kuò)散模型介紹)【論文精讀】Hierarchical Text-ConditionalImage Generation with CLIP Latents

    ????????大家好,今天我們就一起來(lái)看一下兩個(gè)月之前 OpenAI 剛放出來(lái)的一篇力作。DALL·E 2是 OpenAI 一系列文本圖像生成工作的最新一篇。去年 1 月份他們先推出了Dolly,然后在年底的時(shí)候又推出了glide。然后現(xiàn)在 4 月份剛推出了 DALL·E 2 一出來(lái)其實(shí)網(wǎng)友就已經(jīng)炸開(kāi)了鍋。我

    2024年04月27日
    瀏覽(22)
  • 【每日論文閱讀】生成模型篇

    【每日論文閱讀】生成模型篇

    聯(lián)邦多視圖合成用于元宇宙 標(biāo)題: Federated Multi-View Synthesizing for Metaverse 作者: Yiyu Guo; Zhijin Qin; Xiaoming Tao; Geoffrey Ye Li 摘要: 元宇宙有望提供沉浸式娛樂(lè)、教育和商務(wù)應(yīng)用。然而,虛擬現(xiàn)實(shí)(VR)在無(wú)線網(wǎng)絡(luò)上的傳輸是數(shù)據(jù)和計(jì)算密集型的,這使得引入滿足嚴(yán)格的服務(wù)質(zhì)量要求的

    2024年02月02日
    瀏覽(23)
  • 【計(jì)算機(jī)視覺(jué) | 擴(kuò)散模型】新論文 | DragGAN論文:如果甲方想把大象 P 轉(zhuǎn)身,你只需要拖動(dòng) GAN 就好了

    【計(jì)算機(jī)視覺(jué) | 擴(kuò)散模型】新論文 | DragGAN論文:如果甲方想把大象 P 轉(zhuǎn)身,你只需要拖動(dòng) GAN 就好了

    2023年5月18日提交的論文,華人一作。 論文地址: 項(xiàng)目地址: 代碼地址為: 具體代碼將會(huì)在六月開(kāi)源! 在圖像生成領(lǐng)域,以 Stable Diffusion 為代表的擴(kuò)散模型已然成為當(dāng)前占據(jù)主導(dǎo)地位的范式。但擴(kuò)散模型依賴于迭代推理,這是一把雙刃劍,因?yàn)榈椒梢詫?shí)現(xiàn)具有簡(jiǎn)單目

    2024年02月05日
    瀏覽(22)
  • 【模型壓縮】 LPPN論文閱讀筆記

    【模型壓縮】 LPPN論文閱讀筆記

    LPPN: A Lightweight Network for Fast Phase Picking ?深度學(xué)習(xí)模型的問(wèn)題在于計(jì)算復(fù)雜度較高,在實(shí)際數(shù)據(jù)處理中需要面臨較高的處理代價(jià),且需要專用的加速處理設(shè)備,如GPU。隨著數(shù)據(jù)累積,迫切需要設(shè)計(jì)一種能夠保證精度的輕量化高速震相拾取模型,以提高處理海量數(shù)據(jù)的效率,這

    2024年02月16日
    瀏覽(58)
  • 論文閱讀_增強(qiáng)語(yǔ)言模型綜述

    論文閱讀_增強(qiáng)語(yǔ)言模型綜述

    name_en: Augmented Language Models: a Survey name_ch: 增強(qiáng)語(yǔ)言模型綜述 paper_addr: http://arxiv.org/abs/2302.07842 date_read: 2023-05-20 date_publish: 2023-02-15 tags: [‘深度學(xué)習(xí)’,‘自然語(yǔ)言處理’,‘大模型’] author: Grégoire Mialon,Meta 文章是一篇增強(qiáng)語(yǔ)言模型(Augmented Language Models,ALMs)綜述,這里的增

    2024年02月15日
    瀏覽(21)
  • 論文閱讀_模型結(jié)構(gòu)_LoRA

    論文閱讀_模型結(jié)構(gòu)_LoRA

    name_en: LoRA: Low-Rank Adaptation of Large Language Models name_ch: LORA:大語(yǔ)言模型的低階自適應(yīng) paper_addr: http://arxiv.org/abs/2106.09685 date_read: 2023-08-17 date_publish: 2021-10-16 tags: [‘深度學(xué)習(xí)’,‘大模型’] author: Edward J. Hu citation: 657 code: https://github.com/microsoft/LoRA pytorch,風(fēng)格簡(jiǎn)捷 LoRA 是 Low-Rank 的

    2024年02月11日
    瀏覽(33)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包