国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

這篇具有很好參考價(jià)值的文章主要介紹了【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

參考論文:A Survey on Generative Diffusion Model

github:https://github.com/chq1155/A-Survey-on-Generative-Diffusion-Model

一、什么是擴(kuò)散模型

1.1 現(xiàn)有生成模型簡(jiǎn)介

【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

已經(jīng)有大量的方法證明深度生成模型能夠模擬人類的想象思維,生成人類難以分辨真?zhèn)蔚膬?nèi)容,主要方法如下:

1、GAN:用神經(jīng)網(wǎng)絡(luò)訓(xùn)練生成器和判別器

【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

GAN 的主要思想:

  • GAN 就是一個(gè)互搏的過(guò)程,要訓(xùn)練兩個(gè)網(wǎng)絡(luò),一個(gè)是生成器,一個(gè)是判別器
  • 生成器就是給定一個(gè)隨機(jī)噪聲,生成一些東西,我們希望其能生成一個(gè)比較逼真的圖片,把生成的圖片和真實(shí)的圖片給到判別器,讓判別器來(lái)看哪些是真圖片和假圖片,就是 0/1 的判斷
  • 通過(guò)兩個(gè)網(wǎng)絡(luò)互相學(xué)習(xí),互相提高,最后能生成比較真實(shí)的圖片

缺點(diǎn):

  • 可解釋性較差:GAN 不是概率模型,是通過(guò)網(wǎng)絡(luò)完成的,是隱式的,所以不知道它到底學(xué)到了什么,不知道其遵循了什么分布
  • 訓(xùn)練時(shí)不穩(wěn)定:因?yàn)橐瑫r(shí)訓(xùn)練兩個(gè)網(wǎng)絡(luò),就有需要平衡的問(wèn)題,訓(xùn)練不好的話容易模型坍塌
  • 多樣性較差

優(yōu)點(diǎn):

  • GAN 的目標(biāo)函數(shù)是用來(lái)以假亂真的,所以保真度和細(xì)節(jié)都非常好

2、AE、DAE、VAE、VQVAE:

【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

Auto-Encoder (AE):給定輸入 x,經(jīng)過(guò)編碼器 encoder 就能得到特征,特征維度會(huì)變小,然后在使用解碼器,得到一個(gè)圖像,訓(xùn)練的目標(biāo)函數(shù)是希望解碼器的輸出能盡可能的重建輸入,也正是因?yàn)槭亲约褐亟ㄗ约?,所以是自編碼器

Denoising Auto-Encoder (AE):先對(duì)原圖輸入進(jìn)行擾亂,后續(xù)過(guò)程和 AE 一樣,依然希望輸入能夠重建原始的未經(jīng)過(guò)擾亂的輸入,這個(gè)擾動(dòng)很有用,會(huì)讓訓(xùn)練出來(lái)的模型非常穩(wěn)健,不容易過(guò)擬合。圖片數(shù)據(jù)本來(lái)就是冗余的,所以添加一些擾動(dòng)后,模型仍然能夠?qū)W習(xí)到很好的特征。

AE 和 DAE 或者 MAE 其實(shí)都是為了學(xué)習(xí)中間那個(gè) bottleneck 特征 z,學(xué)習(xí)好了后用于分類、檢測(cè)等任務(wù),并不是做生成的,其原因在于這里的 z 是專門(mén)用來(lái)重建的特征,并不是隨機(jī)噪聲,并不能用于采樣來(lái)生成圖像

所以就有了 VAE,也就是變分自編碼器,VAE 和 AE 是很不同的,雖然結(jié)構(gòu)看起來(lái)很像,但很重要的區(qū)別是,中間不再是學(xué)習(xí)一個(gè) bottleneck 的特征,而是學(xué)習(xí)了一個(gè)分布,假設(shè)分布是高斯分布,可以用均值和方差來(lái)描述,就是從 encoder 得到特征后,加一些 FC 層,來(lái)預(yù)測(cè)均值和方差,得到后用公式采樣一個(gè) z 出來(lái),VAE 就可以用來(lái)做生成了,因?yàn)樵谟?xùn)練好后,可以扔掉 encoder,這里的 z 就是能隨機(jī)抽樣出的樣本,然后就能生成圖片了

VAE 這里生成的是一個(gè)分布,從貝葉斯角度來(lái)看,前面的過(guò)程是一個(gè)后驗(yàn)概率 p(z|x),就是給定 x 得到 z 的過(guò)程,學(xué)到的 z 就是一個(gè)先驗(yàn)分布,后面的過(guò)程是一個(gè)先驗(yàn)概率 p(x|z),就是給定 z 預(yù)測(cè) x 的過(guò)程,其實(shí)就是最大似然,這里做的就是 maximize likelihood。

VAE 因?yàn)槭菍W(xué)習(xí)的概率分布,是從分布中抽樣的,生成的圖片的多樣性比 GAN 好的多,后面還有一些 VQVAE 和 DALLE 1 都是在 VAE 的基礎(chǔ)上做的。

【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

VAE 其實(shí)結(jié)構(gòu)和擴(kuò)散模型很像,且有較好的理論可解釋性,但 Encoder 使用很大的步長(zhǎng)來(lái)學(xué)習(xí)數(shù)據(jù)分布并進(jìn)行加噪,Decoder 也使用很大的步長(zhǎng)來(lái)去噪,導(dǎo)致學(xué)習(xí)的不夠細(xì)致,很粗糙。

3、Diffusion model

前向擴(kuò)散:在輸入 x0 上逐步加噪聲,一共加 T 次,最終變成一個(gè)真正的噪聲,各向同性正態(tài)分布

逆向去噪:從最終的 xT 逐步恢復(fù)原圖的過(guò)程,使用的是共享參數(shù)的 U-Net 結(jié)構(gòu)

【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

擴(kuò)散模型發(fā)展歷程:

DDPM → improved DDPM → Diffusion beats GAN → GLIDE → DALLE2 → Imagen

【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

1.2 擴(kuò)散模型的理論來(lái)源

我們主要介紹擴(kuò)散模型,擴(kuò)散模型背后的直覺(jué)來(lái)源于物理學(xué):

  • 在物理學(xué)中,氣體分子從高濃度區(qū)域擴(kuò)散到低濃度區(qū)域
  • 這與由于噪聲的干擾而導(dǎo)致的信息丟失是相似的
  • 通過(guò)引入噪聲,然后嘗試去噪來(lái)生成圖像,模型每次在給定一些噪聲輸入的情況下學(xué)習(xí)生成新圖像。

1.3 擴(kuò)散模型的使用場(chǎng)景

擴(kuò)散模型可以用到哪些任務(wù)上:

  • 計(jì)算機(jī)視覺(jué)
  • 語(yǔ)言模型
  • 聲音模型
  • AI for science

擴(kuò)散模型的應(yīng)用場(chǎng)景:

  • 圖文生成
  • 視頻生成
  • 分子結(jié)構(gòu)生成
  • AI 繪畫(huà)
  • AI 制藥

1.4 擴(kuò)散模型的基本結(jié)構(gòu)

擴(kuò)散模型的工作原理:

  • 學(xué)習(xí)由于噪聲引起的信息衰減,然后使用學(xué)習(xí)到的模式來(lái)生成圖像

擴(kuò)散模型的結(jié)構(gòu):

  • 擴(kuò)散模型定義了一個(gè)擴(kuò)散步驟的馬爾可夫鏈,慢慢地向數(shù)據(jù)中添加隨機(jī)噪聲,也就是熵增的過(guò)程,然后學(xué)習(xí)逆向擴(kuò)散過(guò)程,從噪聲中構(gòu)建所需的數(shù)據(jù)樣本
  • 前向擴(kuò)散過(guò)程 q q q:為輸入圖像 x 0 x_0 x0? 引入一系列的隨機(jī)噪聲,也就是對(duì)樣本點(diǎn)分 T 步添加高斯噪聲,隨著噪聲的引入, x 0 x_0 x0? 最終會(huì)失去區(qū)分特性
  • 逆向恢復(fù)過(guò)程 p p p:從高斯先驗(yàn)出發(fā),從有大量隨機(jī)噪聲的圖中學(xué)習(xí)恢復(fù)原圖

【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

擴(kuò)散模型相比 GAN 或 VAE 的缺點(diǎn):

  • 速度慢:擴(kuò)散模型是基于馬爾科夫過(guò)程來(lái)實(shí)現(xiàn)的,在訓(xùn)練和推理的時(shí)候都需要很多步驟

【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

1.5 馬爾可夫過(guò)程

馬爾可夫模型有兩個(gè)假設(shè):

  • 系統(tǒng)在 t t t 時(shí)刻的狀態(tài)只與 t ? 1 t-1 t?1 時(shí)刻的狀態(tài)有關(guān),也稱無(wú)后效性
  • 狀態(tài)轉(zhuǎn)移概率與時(shí)間 t t t 無(wú)關(guān),只與前驅(qū)和后繼的狀態(tài)有關(guān),也稱齊次性或時(shí)齊性

1、無(wú)后效性

具有馬爾科夫性質(zhì)的狀態(tài)滿足下面公式:

P ( S t + 1 ∣ S t ) = P ( S t + 1 ∣ S 1 , . . . , S t ) P(S_{t+1}|S_t)=P(S_{t+1}|S_1,...,S_t) P(St+1?St?)=P(St+1?S1?,...,St?)

上述公式的意義:

  • 給定當(dāng)前狀態(tài) S t S_t St?,將來(lái)的狀態(tài) S t + 1 S_{t+1} St+1? t t t 時(shí)刻之前的狀態(tài) { S 1 , . . . , S t ? 1 } \{S_1, ..., S_{t-1} \} {S1?,...,St?1?} 已經(jīng)沒(méi)有關(guān)系,只和當(dāng)前的狀態(tài) S t S_t St? 有關(guān)系。
  • 當(dāng)前的狀態(tài) S t S_t St? 中已經(jīng)包括了歷史的相關(guān)信息,所以之前的狀態(tài)可以忽略

2、齊次性

對(duì)狀態(tài) s s s 和后繼狀態(tài) s ′ s' s,狀態(tài)轉(zhuǎn)移概率定義為:
P s s ′ = P [ S t + 1 = s ′ ∣ S t = s ] P_{ss'}=P[S_{t+1}=s'|S_t=s] Pss?=P[St+1?=sSt?=s]

狀態(tài)轉(zhuǎn)移矩陣 P 定義了從 s s s 轉(zhuǎn)移到后繼狀態(tài) s ′ s' s 的概率:

【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?
其中的每行和為1:

  • 比如擲骰子游戲,當(dāng)前的點(diǎn)數(shù)為1

  • 再一次擲骰子得到的點(diǎn)數(shù)的概率,即使我們不知道下一個(gè)具體點(diǎn)數(shù)的概率,但是我們知道下一個(gè)點(diǎn)數(shù)是1,2,3,4,5,6中的某一點(diǎn),那么就會(huì)有:

    【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

馬爾可夫過(guò)程:

馬爾科夫過(guò)程一個(gè)無(wú)記憶的隨機(jī)過(guò)程,是一些具有馬爾科夫性質(zhì)的隨機(jī)狀態(tài)序列構(gòu)成,可以用一個(gè)元組 <S,P> 表示:

  • S 是有限數(shù)量的狀態(tài)集合
  • P 是狀態(tài)轉(zhuǎn)移概率矩陣, P s s ′ = P [ S t + 1 = s ′ ∣ S t = s ] P_{ss'}=P[S_{t+1}=s'|S_t=s] Pss?=P[St+1?=sSt?=s]

二、擴(kuò)散模型相關(guān)定義

2.1 符號(hào)和定義

1、State:狀態(tài)

State 是能夠描述整個(gè)擴(kuò)散模型過(guò)程的一系列數(shù)據(jù):

  • 初始狀態(tài):starting state x 0 x_0 x0?
  • prior state:離散時(shí)為 x T x_T xT?,連續(xù)時(shí)為 x 1 x_1 x1?
  • 中間狀態(tài):intermediate state x t x_t xt?

2、Process 和 Transition Kernel

  • Forward/Diffusion 過(guò)程 F F F:將初始狀態(tài)轉(zhuǎn)換到有噪聲的狀態(tài)
  • Reverse/Denoised 過(guò)程 R R R:和前向過(guò)程方向相反,從有噪聲的圖像中逐步復(fù)原原圖的過(guò)程
  • Transition Kernel:在上面的兩個(gè)過(guò)程中,每?jī)蓚€(gè) state 的變換都是通過(guò) transition kernel 來(lái)實(shí)現(xiàn)的,

前向和逆向的過(guò)程如下所示:

【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

對(duì)于非離散情況,任何時(shí)間 0 < = t < s < 1 0<=t<s<1 0<=t<s<1 的前向過(guò)程如下:

【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

  • F t F_t Ft? R t R_t Rt? 分別是 t t t 時(shí)刻從狀態(tài) x t ? 1 x_{t-1} xt?1? 轉(zhuǎn)換成狀態(tài) x t x_t xt? 的前向 transition kernel 和逆向 transition kernel
  • σ t \sigma_t σt? 是噪聲尺度
  • 最常用的 transition kernel 是 Markov kernel,因?yàn)槠渚哂休^好的任意性和可控性

3、Pipeline:

假設(shè)定義 sampled data 為 x ~ 0 \widetilde{x}_0 x 0?,則整個(gè)過(guò)程可以描述如下:

【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

4、離散和連續(xù)過(guò)程

與離散過(guò)程相比,連續(xù)過(guò)程能夠從任何時(shí)間狀態(tài)中提取任何信息

如果擾動(dòng)核的變化足夠小,則連續(xù)過(guò)程有更好的理論支撐

5、訓(xùn)練目標(biāo)

擴(kuò)散模型是生成模型的一個(gè)子類,和 VAE 的目標(biāo)函數(shù)類似,目標(biāo)是讓初始分布 x 0 x_0 x0? 和采樣分布 x ~ 0 \widetilde{x}_0 x 0? 盡可能的接近。

通過(guò)最大化如下 log-likelihood 公式來(lái)實(shí)現(xiàn),其中 σ ~ \widetilde{\sigma} σ 在前向和逆向過(guò)程中是不同的:

【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

2.2 問(wèn)題規(guī)范化

1、Denoised Diffusion Probabilistic Model(DDPM):去噪擴(kuò)散概率模型

NIPS 2021 的論文 ‘Denoising diffusion probabilistic models’ 中對(duì)擴(kuò)散概率模型進(jìn)行了改進(jìn),提出了 DDPM:

  • 使用固定的方差回歸均值
  • 用和噪聲表示,通過(guò)均值預(yù)測(cè)網(wǎng)絡(luò)重參數(shù)化,將關(guān)于均值的差改寫(xiě)為噪聲預(yù)測(cè)網(wǎng)絡(luò)與噪聲的差,將目標(biāo)函數(shù)改寫(xiě)為噪聲預(yù)測(cè)的方式
  • 對(duì)高斯噪聲進(jìn)行回歸預(yù)測(cè)
  • 對(duì)擴(kuò)散模型的架構(gòu)也進(jìn)行了相應(yīng)的改進(jìn),使用 U-Net 形式的架構(gòu),引入了跳躍連接,更適合于像素級(jí)別的預(yù)測(cè)任務(wù)

DDPM Forward Process:

  • DDPM 使用一系列的噪聲系數(shù) β 1 \beta_1 β1?、 β 2 \beta_2 β2? β T \beta_T βT? 作為不同時(shí)刻的 Markov trasition kernel。

  • 一般都使用常數(shù)、線性規(guī)則、cosine 規(guī)則 來(lái)選擇噪聲系數(shù),而且 [68] 中也證明了不同的噪聲系數(shù)在實(shí)驗(yàn)中也沒(méi)有明顯的影響

  • DDPM 的前向過(guò)程定義如下:

    【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

  • 根據(jù)從 x 0 x_0 x0? x T x_T xT? 的擴(kuò)散步驟, Forward Diffusion Process 如下:

    【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

DDPM Reverse Process:

  • 逆向過(guò)程使用可學(xué)習(xí)的 Gaussian trasition 參數(shù) θ \theta θ 來(lái)定義如下:

    【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

  • 逐步從 x T x_T xT? 復(fù)原到 x 0 x_0 x0? 的過(guò)程如下,假設(shè)過(guò)程為 p ( x T ) = N ( x T ; ? 0 , I ) p(x_T) = N(x_T;\ 0, I) p(xT?)=N(xT?;?0,I)

    【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

  • 所以, p θ ( x 0 ) = ∫ p θ ( x 0 : T ) d x 1 : T p_{\theta}(x_0)=\int p_{\theta}(x_{0:T})dx_{1:T} pθ?(x0?)=pθ?(x0:T?)dx1:T? 的分布就是 x ~ 0 \widetilde{x}_0 x 0? 的分布

Diffusion Training Objective:為了最小化 negative log-likelihood (NLL),則最小化問(wèn)題轉(zhuǎn)換為:

【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

  • L T L_T LT?:prior loss
  • L 0 L_0 L0?:reconstruction loss
  • L 1 : T ? 1 L_{1:T-1} L1T?1?:consistent loss

下圖是 PPDM 的 pipeline:

【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

2、Score Matching Formulation

score matching 模型是為了解決原始數(shù)據(jù)分布的估計(jì)問(wèn)題,通過(guò)近似數(shù)據(jù)的梯度 ? x l o g p ( x ) \nabla_xlogp(x) ?x?logp(x) 來(lái)實(shí)現(xiàn),這也稱為 score。

兩個(gè)相鄰狀態(tài)的 transition kernel 為:

【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

Score matching 過(guò)程:

score matching 的核心是訓(xùn)練一個(gè)得分估計(jì)網(wǎng)絡(luò) s θ ( x , σ ) s_{\theta}(x, \sigma) sθ?(x,σ) 來(lái)預(yù)測(cè)得分。
【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

DSM:

【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

三、可以提升的點(diǎn)

盡管擴(kuò)散模型目前取得了很好的生成效果,到其逐步去噪的過(guò)程涉及非常多的迭代步驟,故此擴(kuò)散模型的加速是很重要的研究課題。

【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-495959.html

到了這里,關(guān)于【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Generative AI 新世界 | 擴(kuò)散模型原理的代碼實(shí)踐之采樣篇

    Generative AI 新世界 | 擴(kuò)散模型原理的代碼實(shí)踐之采樣篇

    本期文章,我們一起來(lái)探究生成式 AI 這一火熱的新知識(shí)領(lǐng)域。 目前計(jì)劃有三個(gè)大方向: 代碼深度實(shí)踐方向。例如用代碼完整詮釋 Diffusion 模型的工作原理,或者 Transformer 的完整架構(gòu)等; 模型部署和訓(xùn)練優(yōu)化方向。例如嘗試解讀 LMI、DeepSpeed、Accelerate、FlashAttention 等不同模型

    2024年04月10日
    瀏覽(25)
  • Amazon Generative AI 新世界 | 基于 Amazon 擴(kuò)散模型原理的代碼實(shí)踐之采樣篇

    Amazon Generative AI 新世界 | 基于 Amazon 擴(kuò)散模型原理的代碼實(shí)踐之采樣篇

    以前通過(guò)論文介紹 Amazon 生成式 AI 和大語(yǔ)言模型(LLMs)的主要原理之外,在代碼實(shí)踐環(huán)節(jié)主要還是局限于是引入預(yù)訓(xùn)練模型、在預(yù)訓(xùn)練模型基礎(chǔ)上做微調(diào)、使用 API 等等。很多開(kāi)發(fā)人員覺(jué)得還不過(guò)癮,希望內(nèi)容可以更加深入。因此,本文將講解基于擴(kuò)散模型原理的代碼實(shí)踐,

    2024年02月06日
    瀏覽(33)
  • Diffusion Model (擴(kuò)散生成模型)的基本原理詳解(二)Score-Based Generative Modeling(SGM)

    本篇是《Diffusion Model (擴(kuò)散生成模型)的基本原理詳解(一)Denoising Diffusion Probabilistic Models(DDPM)》的續(xù)寫(xiě),繼續(xù)介紹有關(guān)diffusion的另一個(gè)相關(guān)模型,同理,參考文獻(xiàn)和詳細(xì)內(nèi)容與上一篇相同,讀者可自行查閱,本篇著重介紹Score-Based Generative Modeling(SGM)的部分,本篇的理論部分參

    2024年02月09日
    瀏覽(22)
  • AIGC原理:擴(kuò)散模型diffusion綜述一:面向視覺(jué)計(jì)算的擴(kuò)散模型研究進(jìn)展

    AIGC原理:擴(kuò)散模型diffusion綜述一:面向視覺(jué)計(jì)算的擴(kuò)散模型研究進(jìn)展

    論文地址:State of the Art on Diffusion Models for Visual Computing ?? 貼一幅SGM(Score-based Generative Model)的原因是宋飏博士將他2019年提出的SMLD模型和2020年Jonathan Ho提出的DDPM采用SDE進(jìn)行一統(tǒng)這兩大極為相似的生成式模型。殊途同歸,基于概率的擴(kuò)散模型DDPM和基于分?jǐn)?shù)的擴(kuò)散模型SMLD都是

    2024年02月05日
    瀏覽(23)
  • 【擴(kuò)散模型】【AIGC】DDPM Note

    【擴(kuò)散模型】【AIGC】DDPM Note

    Abstract 我們使用擴(kuò)散概率模型給出了高質(zhì)量的圖像合成結(jié)果,擴(kuò)散概率模型是一類受非平衡熱力學(xué)啟發(fā)的潛變量模型。我們的最佳結(jié)果是根據(jù)擴(kuò)散概率模型和去噪分?jǐn)?shù)匹配與朗之萬(wàn)動(dòng)力學(xué)之間的新聯(lián)系而設(shè)計(jì)的加權(quán)變分界上的訓(xùn)練,并且我們的模型自然地允許漸進(jìn)有損解壓縮

    2024年02月10日
    瀏覽(18)
  • AIGC入門(mén)系列1:感性的認(rèn)識(shí)擴(kuò)散模型

    AIGC入門(mén)系列1:感性的認(rèn)識(shí)擴(kuò)散模型

    大家好,歡迎來(lái)到AI手工星的頻道,我是專注AI領(lǐng)域的手工星。AIGC已經(jīng)成為AI又一個(gè)非常爆火的領(lǐng)域,并且與之前的AI模型不同,AIGC更適合普通人使用,我們不僅可以與chatgpt對(duì)話,也能通過(guò)繪畫(huà)模型生成想要的圖片。很多朋友都想去深入的了解和掌握AIGC的原理,但是AIGC需要一

    2024年02月03日
    瀏覽(17)
  • 【AIGC】手把手使用擴(kuò)散模型從文本生成圖像

    【AIGC】手把手使用擴(kuò)散模型從文本生成圖像

    在這篇文章中,我們將手把手展示如何使用Hugging Face的diffusers包通過(guò)文本生成圖像。 DALLE2是收費(fèi)的,用戶只有一些免費(fèi)的額度,如果免費(fèi)額度使用完畢就需要付費(fèi)了,所以必須尋找替代方案,并發(fā)現(xiàn)了Hugging Face,他們發(fā)布了一個(gè)擴(kuò)散模型的包diffusers ,可以讓我們直接使用。

    2024年02月09日
    瀏覽(29)
  • AIGC消息天天不斷,到底什么是AIGC?

    AIGC消息天天不斷,到底什么是AIGC?

    最近,AIGC領(lǐng)域的新消息可以說(shuō)是日新月異,今天國(guó)外某IT大佬推出一個(gè)新模型,明天國(guó)內(nèi)某大廠推出一個(gè)新平臺(tái)。 說(shuō)來(lái)說(shuō)去,到底什么是AIGC呢? AIGC的全稱是 AI Generated Content ,也就是利用人工智能技術(shù)自動(dòng)生成各種類型的內(nèi)容。 AIGC的應(yīng)用領(lǐng)域有很多,最主要的有四大領(lǐng)域:

    2024年02月09日
    瀏覽(22)
  • AIGC技術(shù)到底是什么?為什么這么火熱?

    AIGC技術(shù)到底是什么?為什么這么火熱?

    AIGC(Artificial Intelligence in Game Creation)技術(shù)是指 利用人工智能技術(shù)來(lái)輔助游戲創(chuàng)作的過(guò)程 。 它可以通過(guò)機(jī)器學(xué)習(xí)、深度學(xué)習(xí)和自然語(yǔ)言處理等技術(shù),從大量的游戲數(shù)據(jù)中提取規(guī)律和模式,進(jìn)而生成游戲的內(nèi)容、關(guān)卡設(shè)計(jì)、角色行為等元素。 ? AIGC技術(shù)可以幫助游戲開(kāi)發(fā)者快速

    2024年02月13日
    瀏覽(22)
  • 【AIGC】Controlnet:基于擴(kuò)散模型的文生圖的可控性

    【AIGC】Controlnet:基于擴(kuò)散模型的文生圖的可控性

    controlnet可以讓stable diffusion的生圖變得可控。 文章連接:https://arxiv.org/pdf/2302.05543.pdf? 凍結(jié)了stable? diffusion的預(yù)訓(xùn)練模型并重用它的預(yù)訓(xùn)練編碼層 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)與零初始化卷積層連接,從零開(kāi)始逐漸增加參數(shù),并確保微調(diào)過(guò)程中不會(huì)有噪聲影響 Controlnet在小數(shù)據(jù)集(小于5張萬(wàn)

    2024年01月21日
    瀏覽(21)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包