DDPM:去噪擴散概率模型
ddpm是一類生成模型,其工作原理是逐漸向數(shù)據(jù)中添加噪聲,然后學習如何逆轉這一過程。這個想法是通過一個稱為擴散的過程將一個簡單的分布(通常是高斯噪聲)轉換成一個復雜的數(shù)據(jù)分布(如圖像或音頻),然后反向生成新的樣本。
簡單的過程可以描述如下:
- 從數(shù)據(jù)分布中的數(shù)據(jù)示例 x 0 x_0 x0?開始。
- 通過一系列步驟將噪聲添加到該數(shù)據(jù)樣本 t t t以生成 x t x_t xt?,最終變?yōu)榧冊肼暋?/li>
- 訓練一個神經(jīng)網(wǎng)絡來逆轉這個過程,即去噪,從 x T x_T xT?(純噪聲)回到 x 0 x_0 x0?(數(shù)據(jù)樣本)。
正向擴散過程可以用馬爾可夫鏈來描述:
x t = 1 ? β t x t ? 1 + β t ? , ? ~ N ( 0 , I ) x_{t} = \sqrt{1 - \beta_t} x_{t-1} + \sqrt{\beta_t} \epsilon, \quad \epsilon \sim \mathcal{N}(0, I) xt?=1?βt??xt?1?+βt???,?~N(0,I)
式中$ \beta_t 為方差調度參數(shù), 為方差調度參數(shù), 為方差調度參數(shù), \epsilon $為高斯噪聲。
相反的過程,也就是模型所學到的,可以簡化為:
x t ? 1 = f ( x t , t ; θ ) x_{t-1} = f(x_t, t; \theta) xt?1?=f(xt?,t;θ)
其中 f f f是一個由 θ \theta θ參數(shù)化的神經(jīng)網(wǎng)絡,它學習對 x t x_t xt?去噪以估計 x t ? 1 x_{t-1} xt?1?。
DDIM:去噪擴散隱式模型
ddim是ddpm的非馬爾可夫變體,允許更快的采樣,并可以提供確定性輸出。關鍵思想是,它們改變了逆向過程的計算方式,在不犧牲質量的情況下,允許更少的步驟生成樣本。
在ddim中,反向過程被修改,以便每個步驟都可能撤銷多個正向擴散步驟。反向過程可表述為:
x t ? 1 = α t ? 1 f ( x t , t ; θ ) + 1 ? α t ? 1 ? t , ? t ~ N ( 0 , I ) x_{t-1} = \sqrt{\alpha_{t-1}} f(x_t, t; \theta) + \sqrt{1 - \alpha_{t-1}} \epsilon_t, \quad \epsilon_t \sim \mathcal{N}(0, I) xt?1?=αt?1??f(xt?,t;θ)+1?αt?1???t?,?t?~N(0,I)這里, α t ? 1 \alpha_{t-1} αt?1?是控制學習到的去噪函數(shù) f f f和添加的噪聲 ? t \epsilon_t ?t?之間權衡的系數(shù)。DDPM和DDIM反向過程之間的關鍵區(qū)別在于DDIM的確定性設置,其中 ? t \epsilon_t ?t?是從模型派生出來的,創(chuàng)建了從 x T x_T xT?到 x 0 x_0 x0?的確定性路徑。
ddim可以被認為是一種更有效地遍歷擴散過程的方法,通常會導致更快的推理時間,因為它們可以采取更大的步驟而不會引入太多錯誤。
我們嘗試進一步簡化ddpm和ddim的解釋:
DDPM:去噪擴散概率模型
想象一下,你有一張清晰的照片(你的原始數(shù)據(jù)),你開始在許多小步驟中添加一點隨機噪聲。每一步,照片都變得更加混亂,直到它完全是隨機的噪音。ddpm學習如何做相反的事情:從噪音開始,他們弄清楚如何一步一步地消除噪音,以恢復原始的清晰照片。
用數(shù)學術語來說,你可以這樣考慮每個增加噪聲的步驟:
x
noisy
=
x
clear
+
noise
x_{\text{noisy}} = x_{\text{clear}} + \text{noise}
xnoisy?=xclear?+noise
而ddpm學會做相反的事情,就像:
x
less?noisy
=
some?process?to?remove?noise?from?
x
noisy
x_{\text{less noisy}} = \text{some process to remove noise from } x_{\text{noisy}}
xless?noisy?=some?process?to?remove?noise?from?xnoisy?
DDIM:去噪擴散隱式模型
現(xiàn)在,對于ddimm,這個想法是類似的,但是ddimm不是在許多步驟中去除一點點噪聲,而是找到了一種方法,只需幾個步驟就可以去除大量噪聲。因此,它們可以更快地清除有噪點的照片,因為它們每次都在清除噪點方面有更大的飛躍。
簡單來說,他們學習的反向過程更像是:
x
less?noisy
=
a?more?effective?noise?removal?process?applied?to?
x
noisy
x_{\text{less noisy}} = \text{a more effective noise removal process applied to } x_{\text{noisy}}
xless?noisy?=a?more?effective?noise?removal?process?applied?to?xnoisy?
ddpm和ddim之間的區(qū)別主要在于它們如何逆轉噪聲添加過程。ddpm通過許多小步驟來完成,而ddim通過更少、更大的步驟來完成。這使得ddimm能夠更快地從噪聲中生成清晰的圖像,因為它們可以走捷徑,而不需要經(jīng)過每一個小步驟就能獲得清晰的圖像。
總而言之,ddpm就像一絲不茍地一塊一塊地清理臟窗戶,而ddim就像把整個窗戶擦幾次,讓它變得一樣干凈。
DDPM(去噪擴散概率模型)
在DDPM中,在每個反向步驟中,網(wǎng)絡將噪聲圖像$ x_t 和時間步長 和時間步長 和時間步長 t 作為輸入,并預測已添加到原始圖像中的噪聲 作為輸入,并預測已添加到原始圖像中的噪聲 作為輸入,并預測已添加到原始圖像中的噪聲 \epsilon 以到達 以到達 以到達 x_t $。逆擴散過程在每一步的公式為:
x t ? 1 = 1 α t ( x t ? 1 ? α t 1 ? α ˉ t ? ^ θ ( x t , t ) ) + σ t ? z x_{t-1} = \frac{1}{\sqrt{\alpha_t}} \left( x_t - \frac{1 - \alpha_t}{\sqrt{1 - \bar{\alpha}_t}} \hat{\epsilon}_\theta(x_t, t) \right) + \sigma_t \cdot z xt?1?=αt??1?(xt??1?αˉt??1?αt???^θ?(xt?,t))+σt??z
其中$ \hat{\epsilon}_\theta(x_t, t) 是神經(jīng)網(wǎng)絡預測的噪聲, 是神經(jīng)網(wǎng)絡預測的噪聲, 是神經(jīng)網(wǎng)絡預測的噪聲, z $是一個隨機噪聲向量,如果需要可以添加(用于隨機抽樣)。
DDIM(去噪擴散隱式模型)
DDIM使用相同的神經(jīng)網(wǎng)絡來預測噪聲$ \epsilon $。然而,反向過程的表述不同,以允許非馬爾可夫動力學和更大的步驟。DDIM中反向步驟的公式為:
x t ? 1 = α ˉ t ? 1 ( x t ? 1 ? α ˉ t ? ? ^ θ ( x t , t ) α ˉ t ) + 1 ? α ˉ t ? 1 ? σ t 2 ? ? ^ θ ( x t , t ) + σ t ? z x_{t-1} = \sqrt{\bar{\alpha}_{t-1}} \left( \frac{x_t - \sqrt{1 - \bar{\alpha}_t} \cdot \hat{\epsilon}_\theta(x_t, t)}{\sqrt{\bar{\alpha}_t}} \right) + \sqrt{1 - \bar{\alpha}_{t-1} - \sigma_t^2} \cdot \hat{\epsilon}_\theta(x_t, t) + \sigma_t \cdot z xt?1?=αˉt?1??(αˉt??xt??1?αˉt????^θ?(xt?,t)?)+1?αˉt?1??σt2????^θ?(xt?,t)+σt??z
在這個公式中,$ \hat{\epsilon}_\theta(x_t, t) 同樣是神經(jīng)網(wǎng)絡的輸出。術語 同樣是神經(jīng)網(wǎng)絡的輸出。術語 同樣是神經(jīng)網(wǎng)絡的輸出。術語 \sigma_t 是該步驟所選擇的噪聲級別, 是該步驟所選擇的噪聲級別, 是該步驟所選擇的噪聲級別, z $是一個隨機噪聲向量,可以將其設置為零以使該過程具有確定性。
說明
在這兩種情況下,只有一個網(wǎng)絡可以預測噪聲$ \epsilon $。DDPM和DDIM之間的關鍵區(qū)別在于它們如何在反向過程中使用預測的噪聲和其他術語來重建原始圖像。由于其公式,DDIM可以在反向過程中進行更大的跳躍,這使得它比DDPM更有效,DDPM需要更小、更漸進的步驟。文章來源:http://www.zghlxwxcb.cn/news/detail-799342.html
網(wǎng)絡$ \theta 預測 預測 預測 \epsilon ,但是它用于計算下一個 ,但是它用于計算下一個 ,但是它用于計算下一個 x_{t-1} $的方式在DDPM和DDIM之間是不同的,DDIM允許一個非馬爾可夫過程,它可以通過擴散過程向后采取可變大小的步驟。文章來源地址http://www.zghlxwxcb.cn/news/detail-799342.html
到了這里,關于【擴散模型】DDPM,DDIM的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!