国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【擴散模型】DDPM,DDIM

這篇具有很好參考價值的文章主要介紹了【擴散模型】DDPM,DDIM。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

DDPM:去噪擴散概率模型

ddpm是一類生成模型,其工作原理是逐漸向數(shù)據(jù)中添加噪聲,然后學習如何逆轉這一過程。這個想法是通過一個稱為擴散的過程將一個簡單的分布(通常是高斯噪聲)轉換成一個復雜的數(shù)據(jù)分布(如圖像或音頻),然后反向生成新的樣本。

簡單的過程可以描述如下:

  1. 從數(shù)據(jù)分布中的數(shù)據(jù)示例 x 0 x_0 x0?開始。
  2. 通過一系列步驟將噪聲添加到該數(shù)據(jù)樣本 t t t以生成 x t x_t xt?,最終變?yōu)榧冊肼暋?/li>
  3. 訓練一個神經(jīng)網(wǎng)絡來逆轉這個過程,即去噪,從 x T x_T xT?(純噪聲)回到 x 0 x_0 x0?(數(shù)據(jù)樣本)。

正向擴散過程可以用馬爾可夫鏈來描述:

x t = 1 ? β t x t ? 1 + β t ? , ? ~ N ( 0 , I ) x_{t} = \sqrt{1 - \beta_t} x_{t-1} + \sqrt{\beta_t} \epsilon, \quad \epsilon \sim \mathcal{N}(0, I) xt?=1?βt? ?xt?1?+βt? ??,?N(0,I)

式中$ \beta_t 為方差調度參數(shù), 為方差調度參數(shù), 為方差調度參數(shù), \epsilon $為高斯噪聲。

相反的過程,也就是模型所學到的,可以簡化為:

x t ? 1 = f ( x t , t ; θ ) x_{t-1} = f(x_t, t; \theta) xt?1?=f(xt?,t;θ)

其中 f f f是一個由 θ \theta θ參數(shù)化的神經(jīng)網(wǎng)絡,它學習對 x t x_t xt?去噪以估計 x t ? 1 x_{t-1} xt?1?。

DDIM:去噪擴散隱式模型

ddim是ddpm的非馬爾可夫變體,允許更快的采樣,并可以提供確定性輸出。關鍵思想是,它們改變了逆向過程的計算方式,在不犧牲質量的情況下,允許更少的步驟生成樣本。

在ddim中,反向過程被修改,以便每個步驟都可能撤銷多個正向擴散步驟。反向過程可表述為:

x t ? 1 = α t ? 1 f ( x t , t ; θ ) + 1 ? α t ? 1 ? t , ? t ~ N ( 0 , I ) x_{t-1} = \sqrt{\alpha_{t-1}} f(x_t, t; \theta) + \sqrt{1 - \alpha_{t-1}} \epsilon_t, \quad \epsilon_t \sim \mathcal{N}(0, I) xt?1?=αt?1? ?f(xt?,t;θ)+1?αt?1? ??t?,?t?N(0,I)這里, α t ? 1 \alpha_{t-1} αt?1?是控制學習到的去噪函數(shù) f f f和添加的噪聲 ? t \epsilon_t ?t?之間權衡的系數(shù)。DDPM和DDIM反向過程之間的關鍵區(qū)別在于DDIM的確定性設置,其中 ? t \epsilon_t ?t?是從模型派生出來的,創(chuàng)建了從 x T x_T xT? x 0 x_0 x0?的確定性路徑。

ddim可以被認為是一種更有效地遍歷擴散過程的方法,通常會導致更快的推理時間,因為它們可以采取更大的步驟而不會引入太多錯誤。

我們嘗試進一步簡化ddpm和ddim的解釋:

DDPM:去噪擴散概率模型

想象一下,你有一張清晰的照片(你的原始數(shù)據(jù)),你開始在許多小步驟中添加一點隨機噪聲。每一步,照片都變得更加混亂,直到它完全是隨機的噪音。ddpm學習如何做相反的事情:從噪音開始,他們弄清楚如何一步一步地消除噪音,以恢復原始的清晰照片。

用數(shù)學術語來說,你可以這樣考慮每個增加噪聲的步驟:
x noisy = x clear + noise x_{\text{noisy}} = x_{\text{clear}} + \text{noise} xnoisy?=xclear?+noise
而ddpm學會做相反的事情,就像:
x less?noisy = some?process?to?remove?noise?from? x noisy x_{\text{less noisy}} = \text{some process to remove noise from } x_{\text{noisy}} xless?noisy?=some?process?to?remove?noise?from?xnoisy?

DDIM:去噪擴散隱式模型

現(xiàn)在,對于ddimm,這個想法是類似的,但是ddimm不是在許多步驟中去除一點點噪聲,而是找到了一種方法,只需幾個步驟就可以去除大量噪聲。因此,它們可以更快地清除有噪點的照片,因為它們每次都在清除噪點方面有更大的飛躍。

簡單來說,他們學習的反向過程更像是:
x less?noisy = a?more?effective?noise?removal?process?applied?to? x noisy x_{\text{less noisy}} = \text{a more effective noise removal process applied to } x_{\text{noisy}} xless?noisy?=a?more?effective?noise?removal?process?applied?to?xnoisy?

ddpm和ddim之間的區(qū)別主要在于它們如何逆轉噪聲添加過程。ddpm通過許多小步驟來完成,而ddim通過更少、更大的步驟來完成。這使得ddimm能夠更快地從噪聲中生成清晰的圖像,因為它們可以走捷徑,而不需要經(jīng)過每一個小步驟就能獲得清晰的圖像。

總而言之,ddpm就像一絲不茍地一塊一塊地清理臟窗戶,而ddim就像把整個窗戶擦幾次,讓它變得一樣干凈。

DDPM(去噪擴散概率模型)

在DDPM中,在每個反向步驟中,網(wǎng)絡將噪聲圖像$ x_t 和時間步長 和時間步長 和時間步長 t 作為輸入,并預測已添加到原始圖像中的噪聲 作為輸入,并預測已添加到原始圖像中的噪聲 作為輸入,并預測已添加到原始圖像中的噪聲 \epsilon 以到達 以到達 以到達 x_t $。逆擴散過程在每一步的公式為:

x t ? 1 = 1 α t ( x t ? 1 ? α t 1 ? α ˉ t ? ^ θ ( x t , t ) ) + σ t ? z x_{t-1} = \frac{1}{\sqrt{\alpha_t}} \left( x_t - \frac{1 - \alpha_t}{\sqrt{1 - \bar{\alpha}_t}} \hat{\epsilon}_\theta(x_t, t) \right) + \sigma_t \cdot z xt?1?=αt? ?1?(xt??1?αˉt? ?1?αt???^θ?(xt?,t))+σt??z

其中$ \hat{\epsilon}_\theta(x_t, t) 是神經(jīng)網(wǎng)絡預測的噪聲, 是神經(jīng)網(wǎng)絡預測的噪聲, 是神經(jīng)網(wǎng)絡預測的噪聲, z $是一個隨機噪聲向量,如果需要可以添加(用于隨機抽樣)。

DDIM(去噪擴散隱式模型)

DDIM使用相同的神經(jīng)網(wǎng)絡來預測噪聲$ \epsilon $。然而,反向過程的表述不同,以允許非馬爾可夫動力學和更大的步驟。DDIM中反向步驟的公式為:

x t ? 1 = α ˉ t ? 1 ( x t ? 1 ? α ˉ t ? ? ^ θ ( x t , t ) α ˉ t ) + 1 ? α ˉ t ? 1 ? σ t 2 ? ? ^ θ ( x t , t ) + σ t ? z x_{t-1} = \sqrt{\bar{\alpha}_{t-1}} \left( \frac{x_t - \sqrt{1 - \bar{\alpha}_t} \cdot \hat{\epsilon}_\theta(x_t, t)}{\sqrt{\bar{\alpha}_t}} \right) + \sqrt{1 - \bar{\alpha}_{t-1} - \sigma_t^2} \cdot \hat{\epsilon}_\theta(x_t, t) + \sigma_t \cdot z xt?1?=αˉt?1? ?(αˉt? ?xt??1?αˉt? ???^θ?(xt?,t)?)+1?αˉt?1??σt2? ???^θ?(xt?,t)+σt??z

在這個公式中,$ \hat{\epsilon}_\theta(x_t, t) 同樣是神經(jīng)網(wǎng)絡的輸出。術語 同樣是神經(jīng)網(wǎng)絡的輸出。術語 同樣是神經(jīng)網(wǎng)絡的輸出。術語 \sigma_t 是該步驟所選擇的噪聲級別, 是該步驟所選擇的噪聲級別, 是該步驟所選擇的噪聲級別, z $是一個隨機噪聲向量,可以將其設置為零以使該過程具有確定性。

說明

在這兩種情況下,只有一個網(wǎng)絡可以預測噪聲$ \epsilon $。DDPM和DDIM之間的關鍵區(qū)別在于它們如何在反向過程中使用預測的噪聲和其他術語來重建原始圖像。由于其公式,DDIM可以在反向過程中進行更大的跳躍,這使得它比DDPM更有效,DDPM需要更小、更漸進的步驟。

網(wǎng)絡$ \theta 預測 預測 預測 \epsilon ,但是它用于計算下一個 ,但是它用于計算下一個 ,但是它用于計算下一個 x_{t-1} $的方式在DDPM和DDIM之間是不同的,DDIM允許一個非馬爾可夫過程,它可以通過擴散過程向后采取可變大小的步驟。文章來源地址http://www.zghlxwxcb.cn/news/detail-799342.html

到了這里,關于【擴散模型】DDPM,DDIM的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 【生成模型】DDPM概率擴散模型(原理+代碼)

    【生成模型】DDPM概率擴散模型(原理+代碼)

    AI 作畫從 18 年的 DeepDream噩夢中驚醒過來,在 2022 年 OpenAI 的 DALL·E 2達到驚人效果,見圖: AI + 藝術涉及到 Transformer、VAE、ELBO、Diffusion Model 等一系列跟數(shù)學相關的知識。 Diffusion Models 跟 VAE 一樣原理很復雜 。 擴散模型 (論文: DDPM 即 Denoising Diffusion Probabilistic Model)2020年發(fā)

    2023年04月18日
    瀏覽(17)
  • 論文閱讀_擴散模型_DDPM

    論文閱讀_擴散模型_DDPM

    英文名稱: Denoising Diffusion Probabilistic Models 中文名稱: 去噪擴散概率模型 論文地址: http://arxiv.org/abs/2006.11239 代碼地址1: https://github.com/hojonathanho/diffusion (論文對應代碼 tensorflow) 代碼地址2: https://github.com/AUTOMATIC1111/stable-diffusion-webui stable-diffusion-webui/modules/models/diffusion/ddpm_edi

    2024年02月09日
    瀏覽(28)
  • 擴散模型原理+DDPM案例代碼解析

    擴散模型原理+DDPM案例代碼解析

    擴散模型和一般的機器學習的神經(jīng)網(wǎng)絡不太一樣!一般的神經(jīng)網(wǎng)絡旨在構造一個網(wǎng)絡模型來擬合輸入數(shù)據(jù)與希望得到的輸出結果,可以把一般的神經(jīng)網(wǎng)絡當作一個黑盒,這個黑盒通過訓練使其輸入數(shù)據(jù)后就可以得到我們想要的結果。而擴散模型包含了大量的統(tǒng)計學和數(shù)學相關

    2024年02月16日
    瀏覽(16)
  • 【擴散模型】【AIGC】DDPM Note

    【擴散模型】【AIGC】DDPM Note

    Abstract 我們使用擴散概率模型給出了高質量的圖像合成結果,擴散概率模型是一類受非平衡熱力學啟發(fā)的潛變量模型。我們的最佳結果是根據(jù)擴散概率模型和去噪分數(shù)匹配與朗之萬動力學之間的新聯(lián)系而設計的加權變分界上的訓練,并且我們的模型自然地允許漸進有損解壓縮

    2024年02月10日
    瀏覽(21)
  • 理解擴散模型:Diffusion Models & DDPM

    理解擴散模型:Diffusion Models & DDPM

    在前面的博客中,我們討論了生成模型VAE和GAN,近年來,新的生成模型——擴散模型受到越來越多的關注,因此值得好好去研究一番。擴散模型(Diffusion Models)最早由 [2] 于2015年提出,但直到2020年論文 [3] 發(fā)表之后才得到關注,本文詳細梳理了 [3] 中的公式推導部分,幫助大

    2023年04月08日
    瀏覽(32)
  • AI繪圖之DDIM 與 DDPM

    AI繪圖之DDIM 與 DDPM

    DDPM:? ? 去噪擴散概率模型 (DDPM) 在沒有對抗訓練的情況下實現(xiàn)了高質量的圖像生成,但它們需要模擬馬爾可夫鏈的許多步驟才能生成樣本。 為了加速采樣,我們提出了去噪擴散隱式模型 (DDIM),這是一類更有效的迭代隱式概率模型,其訓練過程與 DDPM 相同。 在 DDPM 中,生成過

    2024年02月11日
    瀏覽(19)
  • AI繪畫Stable Diffusion原理之擴散模型DDPM

    AI繪畫Stable Diffusion原理之擴散模型DDPM

    傳送門: stable diffusion:Git|論文 stable-diffusion-webui:Git Google Colab Notebook部署stable-diffusion-webui:Git kaggle Notebook部署stable-diffusion-webui:Git AI繪畫,輸入一段文本就能生成相關的圖像,stable diffusion便是其中一個重要分支。自己對其中的原理比較感興趣,因此開啟這個系列的文章

    2024年02月03日
    瀏覽(27)
  • 一文速覽擴散模型優(yōu)化過程:從DDPM到條件生成模型Stable Diffusion

    一文速覽擴散模型優(yōu)化過程:從DDPM到條件生成模型Stable Diffusion

    目前AIGC可以說是整個人工智能領域的當紅炸子雞,而Diffusion Model(擴散模型)正是目前各項圖像生成式應用的主要架構。本人并不主要研究圖像生成領域,不過由于項目需要也對其進行過一些調研,故寫下這篇文章進行分享與記錄。本文會從最簡單的擴散模型開始講起,然后

    2024年02月09日
    瀏覽(26)
  • 人工智能_CPU安裝運行ChatGLM大模型_安裝清華開源人工智能AI大模型ChatGlm-6B_004---人工智能工作筆記0099

    人工智能_CPU安裝運行ChatGLM大模型_安裝清華開源人工智能AI大模型ChatGlm-6B_004---人工智能工作筆記0099

    上一節(jié)003節(jié)我們安裝到最后,本來大模型都可以回答問題了,結果, 5分鐘后給出提示,需要GPU,我去..繼續(xù)看官網(wǎng),如何配置CPU運行 ?沒辦法繼續(xù)看: 這里是官網(wǎng)可以看到? 需要gcc的版本是11.3.0,這里我們先沒有去安裝,直接試試再說 yum install epel-release yum install gcc-11.3.0 安裝的話執(zhí)行這

    2024年02月21日
    瀏覽(30)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包