国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】

這篇具有很好參考價(jià)值的文章主要介紹了圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

目錄

監(jiān)督學(xué)習(xí) 與 無監(jiān)督學(xué)習(xí)

生成模型

自編碼器

從線性維度壓縮角度: 2D->1D

線性維度壓縮: 3D->2D

推廣線性維度壓縮

流形

自編碼器:流形數(shù)據(jù)的維度壓縮

全圖像空間

自然圖像流形

自編碼器的去噪效果

自編碼器的問題

圖像預(yù)測(cè) (“結(jié)構(gòu)化預(yù)測(cè)”)

顯式密度模型

RNN

PixelRNN [van der Oord et al. 2016]

PixelCNN?[van der Oord et al. 2016]

Variational Auto-Encoder ?(變分自編碼器 VAE)

變分自編碼器 VAE

VAE vs PixelRNN

?編輯

隱變量模型

VAE的“不溫順”:Intractability

Generative Adversarial Network ?(對(duì)抗生成網(wǎng)絡(luò) GAN)

訓(xùn)練判別器網(wǎng)絡(luò)預(yù)測(cè)圖像是否真實(shí)

GAN模型

模式崩潰(Mode Collapse)

Diffusion擴(kuò)散模型

AIGC


監(jiān)督學(xué)習(xí) 與 無監(jiān)督學(xué)習(xí)

監(jiān)督學(xué)習(xí)

數(shù)據(jù):(x, y) X是數(shù)據(jù),Y是標(biāo)簽

目標(biāo):學(xué)習(xí)一個(gè)從x到y(tǒng)的函數(shù)映射

樣例:分類、回歸、物體檢測(cè)、語義分割、描述

無監(jiān)督學(xué)習(xí)

數(shù)據(jù):(x) 只有數(shù)據(jù),沒有標(biāo)簽!

目標(biāo):從數(shù)據(jù)x中學(xué)習(xí)其固有的結(jié)構(gòu)信息

樣例:聚類、維度壓縮、表征學(xué)習(xí)、密度估計(jì)?

生成模型

定義:給定訓(xùn)練數(shù)據(jù),生成與訓(xùn)練數(shù)據(jù)服從相同分布的新樣本

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

PixelRNN/CNN較為常用

為什么需要生成模型?

實(shí)際應(yīng)用(圖像修復(fù),藝術(shù)生成等)

為下游任務(wù)(如分類)創(chuàng)造樣本做表征學(xué)習(xí)

生成樣本量極少的高維數(shù)據(jù)(物理、醫(yī)療圖像等)

模擬環(huán)境用于決策判斷(機(jī)器人、強(qiáng)化學(xué)習(xí)等)

自編碼器

自編碼器(Auto-Encoders):通過對(duì)編碼層限制維度(Dimensionallity)、強(qiáng)制稀疏(Sparsity)、加入噪聲(Denoising)等方法,來迫使模型學(xué)習(xí)數(shù)據(jù)的結(jié)構(gòu)化表征

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

??!缺乏采樣生成手段

簡(jiǎn)單來說就是:用無監(jiān)督方法來獲取無標(biāo)簽訓(xùn)練數(shù)據(jù)的低維表征

?z一般比x的維度小 為什么維度???

數(shù)據(jù)壓縮可以獲得“有意義的信息”

怎么做到?

訓(xùn)練完去掉解碼器

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成?

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

在有標(biāo)注的數(shù)據(jù)集上微調(diào)編碼器

有監(jiān)督的數(shù)據(jù)可以讓編碼器獲得“有意義的信息”

但這樣無法采樣z,因?yàn)椴恢浪姆植?/span>

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

從線性維度壓縮角度: 2D->1D

考慮在二維平面上的點(diǎn) 這些點(diǎn)都在一條直線上

我們可以通過投影的方式把它們壓縮到一維且保留相互之間的關(guān)系

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

線性維度壓縮: 3D->2D

與一維類似,我們可以把點(diǎn)投影到平面上? ? 進(jìn)行 “平面擬合”

我們需要記錄的數(shù)據(jù)從三維變成了二維+平面的參數(shù)

可以想象成把空間的點(diǎn)投影到一張紙

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

推廣線性維度壓縮

主成分分析 Principal Components Analysis (PCA):

- 根據(jù)數(shù)據(jù)的分布找到數(shù)據(jù)的主成分

- 每個(gè)正交的方向?yàn)橐粋€(gè)主成分

- 可以保留前k個(gè)主成分來做維度壓縮

-?PCA與數(shù)據(jù)的特征空間高度相關(guān)

流形

一張紙上的點(diǎn)可以用二維空間表示

如果進(jìn)行折疊,那么它仍然可以用二維表示,但是這張紙卻變成了三維物體…

流形(manifold)可以看作這種形式的擴(kuò)展…

自編碼器:流形數(shù)據(jù)的維度壓縮

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

大多數(shù)維度壓縮的變換是不可逆的

自編碼器所學(xué)的是一個(gè)從流形數(shù)據(jù)到低維特征的可逆變換

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

全圖像空間

考慮所有分辨率為 100x100 圖像? ?我們來隨機(jī)采樣…

提問: 完全隨機(jī)采樣的圖像長什么樣?

pixels = np.random.rand(100,100,3)

結(jié)論:大多數(shù)圖像都是噪聲

自然圖像流形

大多數(shù)圖像是噪聲

有“意義”的圖像一般分布在一個(gè)具體的流形上

該流形會(huì)包含所有擁有相同“意義”的圖像

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

自編碼器的去噪效果

自編碼器會(huì)學(xué)習(xí)某個(gè)在流形上的可逆變換

由于沒有“意義”,絕大多數(shù)噪聲不在流形上

如果我們?cè)谳斎攵司图尤朐肼?,我們就可以得到去噪后的?shù)據(jù)

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

自編碼器的問題

自編碼器可以還原在流形上的數(shù)據(jù)點(diǎn)

但是并不能還原該流形上的所有數(shù)據(jù)點(diǎn)…

無法實(shí)現(xiàn)采樣確保生成有效的新數(shù)據(jù)…

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

圖像預(yù)測(cè) (“結(jié)構(gòu)化預(yù)測(cè)”)

我們通常會(huì)用類似自編碼器的結(jié)構(gòu)來進(jìn)行 圖像到圖像之間的遷移

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

更好的損失函數(shù):更好的生成效果

我們?nèi)绾卧O(shè)計(jì)損失函數(shù),使得不在流形上的數(shù)據(jù)得到應(yīng)有的“懲罰”?

設(shè)計(jì)可學(xué)習(xí)的損失函數(shù)

顯式密度模型

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

RNN

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

PixelRNN [van der Oord et al. 2016]

從左上角開始生成每個(gè)像素

使用RNN和所有已經(jīng)生成好的像素點(diǎn)生成新的像素點(diǎn)

缺點(diǎn):順序生成過程過于緩慢

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

PixelCNN?[van der Oord et al. 2016]

同樣從左上角開始生成每個(gè)像素

僅使用當(dāng)前像素點(diǎn)周圍一個(gè)窗口的區(qū)域生成當(dāng)前像素點(diǎn)

比PixelRNN快很多 但仍然很慢

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

Variational Auto-Encoder ?(變分自編碼器 VAE)

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

變分自編碼器 VAE

變分自編碼器(Variational Autoencoders,VAE):通過對(duì)中間表征概率建模(Probabilistic Modeling)使隱變量服從先驗(yàn)分布

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

VAE vs PixelRNN

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

優(yōu)點(diǎn):快,直接可以生成所有的像素點(diǎn)

缺點(diǎn):“不溫順”,無法直接優(yōu)化z,只能推出似然估計(jì)的下界

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

這樣學(xué)習(xí)的問題是什么?

“不溫順”(難以處理的)

隱變量模型

隱變量模型(Latent Variable Models):學(xué)習(xí)一個(gè)潛在的隱變量空間來解釋觀測(cè)數(shù)據(jù)的生成過程,可以生成新的樣本

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

VAE的“不溫順”:Intractability

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

由于z維度較大,較難有效采樣 無法通過蒙特卡洛估計(jì) z 來優(yōu)化p(x│z)

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

優(yōu)點(diǎn): 可以通過微調(diào)編碼器學(xué)習(xí)有效編碼 理論性更強(qiáng)

缺點(diǎn): 生成效果一般

研究領(lǐng)域: 解耦表征

Generative Adversarial Network ?(對(duì)抗生成網(wǎng)絡(luò) GAN)

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

訓(xùn)練判別器網(wǎng)絡(luò)預(yù)測(cè)圖像是否真實(shí)

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

GAN模型

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

模式崩潰(Mode Collapse)

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

GAN總結(jié)

優(yōu)點(diǎn): 效果好!

缺點(diǎn): 難以訓(xùn)練

改進(jìn)方式: Wasserstein GAN (WGAN)、梯度懲罰 (Gradient Penalty)、譜標(biāo)準(zhǔn)化 (Spectral Normalization)

Diffusion擴(kuò)散模型

如何避免對(duì)每一個(gè)概念訓(xùn)練一個(gè)擴(kuò)散網(wǎng)絡(luò)?

方法1:加一個(gè)標(biāo)簽給擴(kuò)散網(wǎng)絡(luò)

方法2:使用語言模型

與GAN的對(duì)比

優(yōu)點(diǎn): 擴(kuò)散模型更好訓(xùn)練

缺點(diǎn): 速度較慢(需要多步迭代)

AIGC

圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】,圖像生成

剩下的應(yīng)用就不記筆記了~有認(rèn)真看~

完結(jié)撒花!!文章來源地址http://www.zghlxwxcb.cn/news/detail-695365.html

到了這里,關(guān)于圖像生成模型【自編碼器、RNN、VAE、GAN、Diffusion、AIGC等】的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 變分自編碼器(VAE)(一)

    變分自編碼器(VAE)(一)

    前言 說來慚愧,VAE接觸很久了,一直想把VAE好好的總結(jié)一下,一直拖到現(xiàn)在。 閑話少說,關(guān)于VAE的文章網(wǎng)上也有不少,解釋的最好最清楚的還是蘇劍林老師的這篇文章文章鏈接,還有B站白板推導(dǎo)系列中關(guān)于變分推斷跟變分自編碼器鏈接。大家可以多看看這兩個(gè)資料,或者直

    2023年04月20日
    瀏覽(23)
  • 變分自編碼器VAE代碼

    變分自編碼器VAE代碼

    ? ? ? ? 自編碼器的目的是自己訓(xùn)練自己,他的輸入和輸出是一樣的。比如28*28的黑白手寫數(shù)字圖片(單通道),如果使用矩陣形式進(jìn)行表達(dá),真正有作用的特征是哪些數(shù)值為1的地方,以及他們?cè)诰仃嚳臻g的位置。而大部分邊緣部分為0的地方對(duì)于特定任務(wù)來說都是冗余的特征。

    2024年02月15日
    瀏覽(18)
  • 變分自編碼器(VAE)公式推導(dǎo)

    論文原文:Auto-Encoding Variational Bayes [OpenReview (ICLR 2014) | arXiv] 本文記錄了我在學(xué)習(xí) VAE 過程中的一些公式推導(dǎo)和思考。如果你希望從頭開始學(xué)習(xí) VAE,建議先看一下蘇劍林的博客(本文末尾有鏈接)。 VAE 認(rèn)為,隨機(jī)變量 (boldsymbol{x} sim p(boldsymbol{x})) 由兩個(gè)隨機(jī)過程得到: 根

    2024年02月11日
    瀏覽(23)
  • 變分自編碼器生成新的手寫數(shù)字圖像

    變分自編碼器生成新的手寫數(shù)字圖像

    變分自編碼器(Variational Autoencoder,VAE) 是一種生成模型,通常用于學(xué)習(xí)數(shù)據(jù)的潛在表示,并用于生成新的數(shù)據(jù)樣本。它由兩部分組成:編碼器和解碼器。 編碼器(Encoder) :接收輸入數(shù)據(jù),并將其映射到潛在空間中的分布。這意味著編碼器將數(shù)據(jù)轉(zhuǎn)換為均值和方差參數(shù)的分

    2024年04月11日
    瀏覽(25)
  • 一分鐘理解VAE(變分自編碼器)

    VAE代表變分自編碼器(Variational Autoencoder),是一種生成模型,它可以從輸入數(shù)據(jù)中學(xué)習(xí)潛在變量,并生成新的樣本。 VAE的輸入和輸出都是連續(xù)向量。輸入通常是圖像、文本或聲音等數(shù)據(jù)類型,輸出可以是相同類型的數(shù)據(jù),也可以是新的數(shù)據(jù)樣本。 Variational Autoencoder (VAE) 可以

    2024年02月15日
    瀏覽(24)
  • AIGC實(shí)戰(zhàn)——使用變分自編碼器生成面部圖像

    在自編碼器和變分自編碼器上,我們都僅使用具有兩個(gè)維度的潛空間。這有助于我們可視化自編碼器和變分自編碼器的內(nèi)部工作原理,并理解自編碼器和變分自編碼潛空間分布的區(qū)別。在本節(jié)中,我們將使用更復(fù)雜的數(shù)據(jù)集,并了解增加潛空間的維度時(shí),變

    2024年02月05日
    瀏覽(22)
  • 變分自編碼器(Variational AutoEncoder,VAE)

    變分自編碼器(Variational AutoEncoder,VAE)

    說到編碼器這塊,不可避免地要講起 AE (AutoEncoder)自編碼器。它的結(jié)構(gòu)下圖所示: 據(jù)圖可知,AE通過自監(jiān)督的訓(xùn)練方式,能夠?qū)⑤斎氲脑继卣魍ㄟ^編碼encoder后得到潛在的特征編碼,實(shí)現(xiàn)了自動(dòng)化的特征工程,并且達(dá)到了降維和泛化的目的。而后通過對(duì)進(jìn)行decoder后,我們

    2024年01月18日
    瀏覽(25)
  • 變分自編碼器(VAE)PyTorch Lightning 實(shí)現(xiàn)

    變分自編碼器(VAE)PyTorch Lightning 實(shí)現(xiàn)

    ?作者簡(jiǎn)介:人工智能專業(yè)本科在讀,喜歡計(jì)算機(jī)與編程,寫博客記錄自己的學(xué)習(xí)歷程。 ??個(gè)人主頁:小嗷犬的個(gè)人主頁 ??個(gè)人網(wǎng)站:小嗷犬的技術(shù)小站 ??個(gè)人信條:為天地立心,為生民立命,為往圣繼絕學(xué),為萬世開太平。 變分自編碼器 (Variational Autoencoder,VAE)是一

    2024年02月21日
    瀏覽(19)
  • AIGC實(shí)戰(zhàn)——變分自編碼器(Variational Autoencoder, VAE)

    我們已經(jīng)學(xué)習(xí)了如何實(shí)現(xiàn)自編碼器,并了解了自編碼器無法在潛空間中的空白位置處生成逼真的圖像,且空間分布并不均勻,為了解決這些問題#

    2024年02月05日
    瀏覽(21)
  • 編碼器 | 基于 Transformers 的編碼器-解碼器模型

    基于 transformer 的編碼器-解碼器模型是 表征學(xué)習(xí) 和 模型架構(gòu) 這兩個(gè)領(lǐng)域多年研究成果的結(jié)晶。本文簡(jiǎn)要介紹了神經(jīng)編碼器-解碼器模型的歷史,更多背景知識(shí),建議讀者閱讀由 Sebastion Ruder 撰寫的這篇精彩 博文。此外,建議讀者對(duì) 自注意力 (self-attention) 架構(gòu) 有一個(gè)基本了解

    2024年02月08日
    瀏覽(28)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包