国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

深入理解深度學習——正則化(Regularization):數(shù)據(jù)集增強

這篇具有很好參考價值的文章主要介紹了深入理解深度學習——正則化(Regularization):數(shù)據(jù)集增強。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

分類目錄:《深入理解深度學習》總目錄


讓機器學習模型泛化得更好的最好辦法是使用更多的數(shù)據(jù)進行訓練。當然,在實踐中,我們擁有的數(shù)據(jù)量是很有限的。解決這個問題的一種方法是創(chuàng)建假數(shù)據(jù)并添加到訓練集中。對于一些機器學習任務(wù),創(chuàng)建新的假數(shù)據(jù)相當簡單。對分類來說這種方法是最簡單的。分類器需要一個復(fù)雜的高維輸入 x x x,并用單個類別標識 y y y概括 x x x。這意味著分類面臨的一個主要任務(wù)是要對各種各樣的變換保持不變。我們可以輕易通過轉(zhuǎn)換訓練集中的 x x x來生成新的 ( x , y ) (x,y) (x,y)對。

這種方法對于其他許多任務(wù)來說并不那么容易。例如,除非我們已經(jīng)解決了密度估計問題,否則在密度估計任務(wù)中生成新的假數(shù)據(jù)是很困難的。數(shù)據(jù)集增強對一個具體的分類問題來說是特別有效的方法:對象識別。圖像是高維的并包括各種巨大的變化因素,其中有許多可以輕易地模擬。即使模型已使用卷積和池化技術(shù)對部分平移保持不變,沿訓練圖像每個方向平移幾個像素的操作通??梢源蟠蟾纳品夯?。許多其他操作如旋轉(zhuǎn)圖像或縮放圖像也已被證明
非常有效。我們必須要小心,不能使用會改變類別的轉(zhuǎn)換。例如,光學字符識別任務(wù)需要認識到 “b’’ 和 “d’’ 以及 “6’’ 和 “9’’ 的區(qū)別,所以對這些任務(wù)來說,水平翻轉(zhuǎn)和旋轉(zhuǎn)180? 并不是合適的數(shù)據(jù)集增強方式。

能保持我們希望的分類不變,但不容易執(zhí)行的轉(zhuǎn)換也是存在的。例如,平面外繞軸轉(zhuǎn)動難以通過簡單的幾何運算在輸入像素上實現(xiàn)。數(shù)據(jù)集增強對語音識別任務(wù)也是有效的 。在神經(jīng)網(wǎng)絡(luò)的輸入層注入噪聲也可以被看作是數(shù)據(jù)增強的一種方式。對于許多分類甚至一些回歸任務(wù)而言,即使小的隨機噪聲被加到輸入,任務(wù)仍應(yīng)該是能夠被解決的。然而,神經(jīng)網(wǎng)絡(luò)被證明對噪聲不是非常健壯。改善神經(jīng)網(wǎng)絡(luò)健壯性的方法之一是簡單地將隨機噪聲添加到輸入再進行訓練。輸入噪聲注入是一些無監(jiān)督學習算法的一部分,如去噪自編碼器。向隱藏單元施加噪聲也是可行的,這可以被看作在多個抽象層上進行的數(shù)據(jù)集增強。Poole et al.表明,噪聲的幅度被細心調(diào)整后,該方法是非常高效的。

在后面的文章中,我們將介紹一個強大的正則化策略Dropout,該策略可以被看作是通過與噪聲相乘構(gòu)建新輸入的過程。在比較機器學習基準測試的結(jié)果時,考慮其采取的數(shù)據(jù)集增強是很重要的。通常情況下,人工設(shè)計的數(shù)據(jù)集增強方案可以大大減少機器學習技術(shù)的泛化誤差。將一個機器學習算法的性能與另一個進行對比時,對照實驗是必要的。在比較機器學習算法A和機器學習算法B時,應(yīng)該確保這兩個算法使用同一人工設(shè)計的數(shù)據(jù)集增強方案。假設(shè)算法A在沒有數(shù)據(jù)集增強時表現(xiàn)不佳,而B結(jié)合大量人工轉(zhuǎn)換的數(shù)據(jù)后表現(xiàn)良好。在這樣的情況下,很可能是合成轉(zhuǎn)化引起了性能改進,而不是機器學習算法B比算法A更好。有時候,確定實驗是否已經(jīng)適當控制需要主觀判斷。例如,向輸入注入噪聲的機器學習算法是執(zhí)行數(shù)據(jù)集增強的一種形式。通常,普適操作(例如,向輸入添加高斯噪聲)被認為是機器學習算法的一部分,而特定于一個應(yīng)用領(lǐng)域(如隨機地裁剪圖像)的操作被認為是獨立的預(yù)處理步驟。

參考文獻:
[1] Lecun Y, Bengio Y, Hinton G. Deep learning[J]. Nature, 2015
[2] Aston Zhang, Zack C. Lipton, Mu Li, Alex J. Smola. Dive Into Deep Learning[J]. arXiv preprint arXiv:2106.11342, 2021.文章來源地址http://www.zghlxwxcb.cn/news/detail-600288.html

到了這里,關(guān)于深入理解深度學習——正則化(Regularization):數(shù)據(jù)集增強的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 深入理解深度學習——正則化(Regularization):作為約束的范數(shù)懲罰

    分類目錄:《深入理解深度學習》總目錄 考慮經(jīng)過參數(shù)范數(shù)正則化的代價函數(shù): J ~ ( θ ; X , y ) = J ( θ ; X , y ) + α Ω ( θ ) tilde{J}(theta;X, y) = J(theta;X, y) + alphaOmega(theta) J ~ ( θ ; X , y ) = J ( θ ; X , y ) + α Ω ( θ ) 回顧《拉格朗日乘子法(二):不等式約束與KKT條件》我們可以構(gòu)

    2024年02月08日
    瀏覽(21)
  • 深度學習記錄--正則化(regularization)

    深度學習記錄--正則化(regularization)

    正則化(regularization)是一種實用的減少 方差 ( variance )的方法,也即 避免過度擬合 L2正則化 又被稱為 權(quán)重衰減(weight dacay) ?在成本函數(shù)中加上正則項: 其中??? ?由于在w的更新過程中會遞減,即權(quán)重衰減 w遞減的過程,實際上是w趨近于0的過程 在這個過程中,部分單元的影響

    2024年01月19日
    瀏覽(48)
  • 生動理解深度學習精度提升利器——測試時增強(TTA)

    生動理解深度學習精度提升利器——測試時增強(TTA)

    測試時增強(Test-Time Augmentation,TTA)是一種在深度學習模型的測試階段應(yīng)用數(shù)據(jù)增強的技術(shù)手段。它是通過對測試樣本進行多次隨機變換或擾動,產(chǎn)生多個增強的樣本,并使用這些樣本進行預(yù)測的多數(shù)投票或平均來得出最終預(yù)測結(jié)果。 為了直觀理解TTA執(zhí)行的過程,這里我繪

    2024年02月09日
    瀏覽(16)
  • 七篇深入理解機器學習和深度學習的讀物推薦

    七篇深入理解機器學習和深度學習的讀物推薦

    在這篇文章中將介紹7篇機器學習和深度學習的論文或者圖書出版物,這些內(nèi)容都論文極大地影響了我對該領(lǐng)域的理解,如果你想深入了解機器學習的內(nèi)容,哪么推薦閱讀。 在自然語言處理和序列建模領(lǐng)域,Vaswani等人的一篇論文《Attention Is All You Need》徹底改變了這一領(lǐng)域。這

    2024年02月07日
    瀏覽(18)
  • 深入理解深度學習——Transformer:編碼器(Encoder)部分

    深入理解深度學習——Transformer:編碼器(Encoder)部分

    分類目錄:《深入理解深度學習》總目錄 相關(guān)文章: ·注意力機制(AttentionMechanism):基礎(chǔ)知識 ·注意力機制(AttentionMechanism):注意力匯聚與Nadaraya-Watson核回歸 ·注意力機制(AttentionMechanism):注意力評分函數(shù)(AttentionScoringFunction) ·注意力機制(AttentionMechanism):Bahda

    2024年02月08日
    瀏覽(27)
  • 深入理解深度學習——Transformer:解碼器(Decoder)部分

    深入理解深度學習——Transformer:解碼器(Decoder)部分

    分類目錄:《深入理解深度學習》總目錄 相關(guān)文章: ·注意力機制(Attention Mechanism):基礎(chǔ)知識 ·注意力機制(Attention Mechanism):注意力匯聚與Nadaraya-Watson核回歸 ·注意力機制(Attention Mechanism):注意力評分函數(shù)(Attention Scoring Function) ·注意力機制(Attention Mechanism):

    2024年02月10日
    瀏覽(34)
  • 【深度學習:數(shù)據(jù)增強】計算機視覺中數(shù)據(jù)增強的完整指南

    【深度學習:數(shù)據(jù)增強】計算機視覺中數(shù)據(jù)增強的完整指南

    可能面臨的一個常見挑戰(zhàn)是模型的過擬合。這種情況發(fā)生在模型記住了訓練樣本的特征,但卻無法將其預(yù)測能力應(yīng)用到新的、未見過的圖像上。過擬合在計算機視覺中尤為重要,在計算機視覺中,我們處理高維圖像輸入和大型、過度參數(shù)化的深度網(wǎng)絡(luò)。有許多現(xiàn)代建模技術(shù)可

    2024年02月03日
    瀏覽(34)
  • 深度學習進行數(shù)據(jù)增強(實戰(zhàn)篇)

    深度學習進行數(shù)據(jù)增強(實戰(zhàn)篇)

    本文章是我在進行深度學習時做的數(shù)據(jù)增強,接著我們上期的劃分測試集和訓練集來做. 文章目錄 前言 數(shù)據(jù)增強有什么好處? 一、構(gòu)造數(shù)據(jù)增強函數(shù) 二、數(shù)據(jù)增強 總結(jié) 很多人在深度學習的時候在對數(shù)據(jù)的處理時一般采用先數(shù)據(jù)增強在進行對訓練集和測試集的劃分,其實我感覺

    2024年01月23日
    瀏覽(15)
  • 深入理解深度學習——BERT派生模型:ALBERT(A Lite BERT)

    深入理解深度學習——BERT派生模型:ALBERT(A Lite BERT)

    分類目錄:《深入理解深度學習》總目錄 預(yù)訓練語言模型的一個趨勢是使用更大的模型配合更多的數(shù)據(jù),以達到“大力出奇跡”的效果。隨著模型規(guī)模的持續(xù)增大,單塊GPU已經(jīng)無法容納整個預(yù)訓練語言模型。為了解決這個問題,谷歌提出了ALBERT,該模型與BERT幾乎沒有區(qū)別,

    2024年02月10日
    瀏覽(22)
  • 深度學習-第T10周——數(shù)據(jù)增強

    深度學習-第T10周——數(shù)據(jù)增強

    ?? 本文為??365天深度學習訓練營 中的學習記錄博客 ?? 原作者:K同學啊 電腦系統(tǒng):Windows 10 語言環(huán)境:Python 3.8.5 編譯器:colab在線編譯 深度學習環(huán)境:Tensorflow 數(shù)據(jù)增強:數(shù)據(jù)增強可以用少量數(shù)據(jù)達到非常棒的識別準確率 數(shù)據(jù)增強的兩種方式: 1、將數(shù)據(jù)增強模塊嵌入m

    2024年02月09日
    瀏覽(25)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包