国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

對抗生成網(wǎng)絡(luò)(GAN)中的損失函數(shù)

這篇具有很好參考價值的文章主要介紹了對抗生成網(wǎng)絡(luò)(GAN)中的損失函數(shù)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

目錄

GAN的訓(xùn)練過程:

L1和L2損失函數(shù)的區(qū)別

基礎(chǔ)概念

相同點

差異


GAN的訓(xùn)練過程:

1、先定義一個標(biāo)簽:real = 1,fake = 0。當(dāng)然這兩個值的維度是按照數(shù)據(jù)的輸出來看的。再定義了兩個優(yōu)化器。用于生成器和判別器。

2、隨機生成一個噪聲z。將z作為生成器的輸入,輸出gen_imgs(假樣本)。

3、計算生成器的損失

定義:生成器的損失為g_loss。損失函數(shù)為adverisal_loss()。判別器為discriminator()。

g_loss = adverisal_loss(discriminator(gen_imgs), real)
g_loss.backward()
optimizer_G.step()

可以看出來,g_loss是根據(jù)一個輸出(將生成的樣本作為輸入的判別器的輸出)與real的一個損失。

1)discriminator(gen_imgs) 的輸出是個什么?
既然是判別器,意思就是判別gen_imgs是不是真樣本。如果是用softmax輸出,是一個概率,為真樣本的概率。

2)g_loss = adverisal_loss(discriminator(gen_imgs), real)
計算g_loss就是判別器的輸出與real的差距,讓g_loss越來越小,就是讓gen_imgs作為判別器的輸出的概率更接近valid。就是讓gen_imgs更像真樣本。

3)要注意的是,這個g_loss用于去更新了生成器的權(quán)重。這個時候,判別器的權(quán)重并沒有被更新。

4、分別把假樣本和真樣本都送入到判別器。

real_loss = adverisal_loss(discriminator(real_imgs), real)
fake_loss = adverisal_loss(discriminator(gen_imgs.detach()), fake)
d_loss = (real_loss + fake_loss) / 2
d_loss.backward()
optimizer_D.step()

real_loss是判別器去判別真樣本的輸出,讓這個輸出更接近與real。

fake_loss是判別器去判別假樣本的輸出,讓這個輸出更接近與fake。

d_loss是前兩者的平均。

損失函數(shù)向后傳播,就是為了讓d_loss ---> 0。也就是讓:

real_loss ---> 0 ===> 讓判別器的輸出(真樣本概率)接近 real

fake_loss ---> 0 ===> 讓判別器的輸出(假樣本概率)接近 fake

也就是說,讓判別器按照真假樣本的類別,分別按照不同的要求去更新參數(shù)。

5、損失函數(shù)的走向?

g_loss 越小,說明生成器生產(chǎn)的假樣本作為判別器的輸入的輸出(概率)越接近real,就是生成的假樣本越像真樣本。

d_loss越小,說明判別器越能夠?qū)⒆R別出真樣本和假樣本。

所以,最后是要讓g_loss更小,d_loss更接近0.5。以至于d_loss最后為0.5的時候,達(dá)到最好的效果。這個0.5的意思就是:判別器將真樣本全部識別正確,所以real_loss=0。把所有的生成的假樣本識別錯誤(生成的樣本很真),此時fake_loss = 1。最后的d_loss = 1/2。

補充:

L1和L2損失函數(shù)的區(qū)別

基礎(chǔ)概念

??? L1損失函數(shù)又稱為MAE(mean abs error),即平均絕對誤差,也就是預(yù)測值和真實值之間差值的絕對值。
??? L2損失函數(shù)又稱為MSE(mean square error),即平均平方誤差,也就是預(yù)測值和真實值之間差值的平方。

相同點

??? 因為計算的方式類似,只有一個平方的差異,因此使用的場合都很相近,通常用于回歸任務(wù)中。

差異

??? 1)L2沒有L1魯棒,直觀來說,L2會將誤差平方,如果誤差大于1,則誤差會被放大很多,因此模型會對異常樣本更敏感,這樣會犧牲許多正常的樣本。當(dāng)訓(xùn)練集中含有更多異常值的時候,L1會更有效。
??? 2)如果是圖像重建任務(wù),如超分辨率、深度估計、視頻插幀等,L2會更加有效,這是由任務(wù)特性決定了,圖像重建任務(wù)中通常預(yù)測值和真實值之間的差異不大,因此需要用L2損失來放大差異,進(jìn)而指導(dǎo)模型的優(yōu)化。
??? 3)L1的問題在于它的梯度在極值點會發(fā)生躍變,并且很小的差異也會帶來很大的梯度,不利于學(xué)習(xí),因此在使用時通常會設(shè)定學(xué)習(xí)率衰減策略。而L2作為損失函數(shù)的時候本身由于其函數(shù)的特性,自身就會對梯度進(jìn)行縮放,因此有的任務(wù)在使用L2時甚至不會調(diào)整學(xué)習(xí)率,不過隨著現(xiàn)在的行業(yè)認(rèn)知,學(xué)習(xí)率衰減策略在很多場景中依然是獲得更優(yōu)模型的手段。
?文章來源地址http://www.zghlxwxcb.cn/news/detail-844533.html

到了這里,關(guān)于對抗生成網(wǎng)絡(luò)(GAN)中的損失函數(shù)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 【Pytorch深度學(xué)習(xí)實戰(zhàn)】(10)生成對抗網(wǎng)絡(luò)(GAN)

    【Pytorch深度學(xué)習(xí)實戰(zhàn)】(10)生成對抗網(wǎng)絡(luò)(GAN)

    ???大家好,我是Sonhhxg_柒,希望你看完之后,能對你有所幫助,不足請指正!共同學(xué)習(xí)交流?? ??個人主頁-Sonhhxg_柒的博客_CSDN博客??? ??歡迎各位→點贊?? + 收藏?? + 留言??? ??系列專欄 - 機器學(xué)習(xí)【ML】?自然語言處理【NLP】? 深度學(xué)習(xí)【DL】 ? ???foreword ?說

    2023年04月08日
    瀏覽(31)
  • 深度學(xué)習(xí)7:生成對抗網(wǎng)絡(luò) – Generative Adversarial Networks | GAN

    深度學(xué)習(xí)7:生成對抗網(wǎng)絡(luò) – Generative Adversarial Networks | GAN

    生成對抗網(wǎng)絡(luò) – GAN 是最近2年很熱門的一種無監(jiān)督算法,他能生成出非常逼真的照片,圖像甚至視頻。我們手機里的照片處理軟件中就會使用到它。 目錄 生成對抗網(wǎng)絡(luò) GAN 的基本原理 大白話版本 非大白話版本 第一階段:固定「判別器D」,訓(xùn)練「生成器G」 第二階段:固定

    2024年02月11日
    瀏覽(21)
  • 生成對抗網(wǎng)絡(luò)(GAN):在圖像生成和修復(fù)中的應(yīng)用

    生成對抗網(wǎng)絡(luò)(GAN):在圖像生成和修復(fù)中的應(yīng)用

    ??歡迎來到AIGC人工智能專欄~生成對抗網(wǎng)絡(luò)(GAN):在圖像生成和修復(fù)中的應(yīng)用 ☆* o(≧▽≦)o *☆嗨~我是IT·陳寒?? ?博客主頁:IT·陳寒的博客 ??該系列文章專欄:AIGC人工智能 ??其他專欄:Java學(xué)習(xí)路線 Java面試技巧 Java實戰(zhàn)項目 AIGC人工智能 數(shù)據(jù)結(jié)構(gòu)學(xué)習(xí) ??文章作者技

    2024年02月10日
    瀏覽(22)
  • PyTorch深度學(xué)習(xí)實戰(zhàn)(31)——生成對抗網(wǎng)絡(luò)(Generative Adversarial Network, GAN)

    PyTorch深度學(xué)習(xí)實戰(zhàn)(31)——生成對抗網(wǎng)絡(luò)(Generative Adversarial Network, GAN)

    生成對抗網(wǎng)絡(luò) ( Generative Adversarial Networks , GAN ) 是一種由兩個相互競爭的神經(jīng)網(wǎng)絡(luò)組成的深度學(xué)習(xí)模型,它由一個生成網(wǎng)絡(luò)和一個判別網(wǎng)絡(luò)組成,通過彼此之間的博弈來提高生成網(wǎng)絡(luò)的性能。生成對抗網(wǎng)絡(luò)使用神經(jīng)網(wǎng)絡(luò)生成與原始圖像集非常相似的新圖像,它在圖像生成中應(yīng)用

    2024年01月22日
    瀏覽(24)
  • GAN!生成對抗網(wǎng)絡(luò)GAN全維度介紹與實戰(zhàn)

    GAN!生成對抗網(wǎng)絡(luò)GAN全維度介紹與實戰(zhàn)

    本文為生成對抗網(wǎng)絡(luò)GAN的研究者和實踐者提供全面、深入和實用的指導(dǎo)。通過本文的理論解釋和實際操作指南,讀者能夠掌握GAN的核心概念,理解其工作原理,學(xué)會設(shè)計和訓(xùn)練自己的GAN模型,并能夠?qū)Y(jié)果進(jìn)行有效的分析和評估。 作者 TechLead,擁有10+年互聯(lián)網(wǎng)服務(wù)架構(gòu)、AI產(chǎn)

    2024年02月12日
    瀏覽(21)
  • 深度學(xué)習(xí)進(jìn)階篇[9]:對抗生成網(wǎng)絡(luò)GANs綜述、代表變體模型、訓(xùn)練策略、GAN在計算機視覺應(yīng)用和常見數(shù)據(jù)集介紹,以及前沿問題解決

    深度學(xué)習(xí)進(jìn)階篇[9]:對抗生成網(wǎng)絡(luò)GANs綜述、代表變體模型、訓(xùn)練策略、GAN在計算機視覺應(yīng)用和常見數(shù)據(jù)集介紹,以及前沿問題解決

    【深度學(xué)習(xí)入門到進(jìn)階】必看系列,含激活函數(shù)、優(yōu)化策略、損失函數(shù)、模型調(diào)優(yōu)、歸一化算法、卷積模型、序列模型、預(yù)訓(xùn)練模型、對抗神經(jīng)網(wǎng)絡(luò)等 專欄詳細(xì)介紹:【深度學(xué)習(xí)入門到進(jìn)階】必看系列,含激活函數(shù)、優(yōu)化策略、損失函數(shù)、模型調(diào)優(yōu)、歸一化算法、卷積模型、

    2024年02月08日
    瀏覽(29)
  • 【計算機視覺|生成對抗】生成對抗網(wǎng)絡(luò)(GAN)

    【計算機視覺|生成對抗】生成對抗網(wǎng)絡(luò)(GAN)

    本系列博文為深度學(xué)習(xí)/計算機視覺論文筆記,轉(zhuǎn)載請注明出處 標(biāo)題: Generative Adversarial Nets 鏈接:Generative Adversarial Nets (nips.cc) 我們提出了一個通過**對抗(adversarial)**過程估計生成模型的新框架,在其中我們同時訓(xùn)練兩個模型: 一個生成模型G,捕獲數(shù)據(jù)分布 一個判別模型

    2024年02月12日
    瀏覽(35)
  • 了解生成對抗網(wǎng)絡(luò) (GAN)

    了解生成對抗網(wǎng)絡(luò) (GAN)

    ????????Yann LeCun將其描述為“過去10年來機器學(xué)習(xí)中最有趣的想法”。當(dāng)然,來自深度學(xué)習(xí)領(lǐng)域如此杰出的研究人員的贊美總是對我們談?wù)摰闹黝}的一個很好的廣告!事實上,生成對抗網(wǎng)絡(luò)(簡稱GAN)自2014年由Ian J. Goodfellow和共同作者在《

    2024年02月12日
    瀏覽(20)
  • 生成式對抗網(wǎng)絡(luò)GAN

    生成式對抗網(wǎng)絡(luò)GAN

    Generative Adversarial Nets 由伊恩·古德費洛(Ian J.Goodfellow)等人于2014年發(fā)表在Conference on Neural Information Processing Systems (NeurIPS)上。NeurIPS是機器學(xué)習(xí)和計算神經(jīng)科學(xué)領(lǐng)域的頂級國際學(xué)術(shù)會議之一。 圖像生成: 論文地址:styleGAN styleGAN2 圖像生成是生成模型的基本問題,GAN相對先前的

    2024年01月16日
    瀏覽(17)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包