国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

深入理解深度學(xué)習(xí)——正則化(Regularization):正則化和欠約束問(wèn)題

這篇具有很好參考價(jià)值的文章主要介紹了深入理解深度學(xué)習(xí)——正則化(Regularization):正則化和欠約束問(wèn)題。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

分類目錄:《深入理解深度學(xué)習(xí)》總目錄


在某些情況下,為了正確定義機(jī)器學(xué)習(xí)問(wèn)題,正則化是必要的。機(jī)器學(xué)習(xí)中許多線性模型,包括線性回歸和PCA,都依賴于對(duì)矩陣 X T X X^TX XTX求逆。只要 X T X X^TX XTX是奇異的,這些方法就會(huì)失效。當(dāng)數(shù)據(jù)生成分布在一些方向上確實(shí)沒(méi)有差異時(shí),或因?yàn)槔虞^少(即相對(duì)輸入特征的維數(shù)來(lái)說(shuō))而在一些方向上沒(méi)有觀察到方差時(shí),這個(gè)矩陣就是奇異的。在這種情況下,正則化的許多形式對(duì)應(yīng)求逆 X T X + α I X^TX+\alpha I XTX+αI。這個(gè)正則化矩陣可以保證是可逆的。

相關(guān)矩陣可逆時(shí),這些線性問(wèn)題有閉式解。沒(méi)有閉式解的問(wèn)題也可能是欠定的。一個(gè)例子是應(yīng)用于線性可分問(wèn)題的邏輯回歸。如果權(quán)重向量 w w w能夠?qū)崿F(xiàn)完美分類,那么 2 w 2w 2w也會(huì)以更高似然實(shí)現(xiàn)完美分類。類似隨機(jī)梯度下降的迭代優(yōu)化算法將持續(xù)增加 w w w的大小,理論上永遠(yuǎn)不會(huì)停止。在實(shí)踐中,數(shù)值實(shí)現(xiàn)的梯度下降最終會(huì)達(dá)到導(dǎo)致數(shù)值溢出的超大權(quán)重,此時(shí)的行為將取決于程序員如何處理這些不是真正數(shù)字的值。

大多數(shù)形式的正則化能夠保證應(yīng)用于欠定問(wèn)題的迭代方法收斂。例如,當(dāng)似然的斜率等于權(quán)重衰減的系數(shù)時(shí),權(quán)重衰減將阻止梯度下降繼續(xù)增加權(quán)重的大小。使用正則化解決欠定問(wèn)題的想法不局限于機(jī)器學(xué)習(xí)。同樣的想法在幾個(gè)基本線性代數(shù)問(wèn)題中也非常有用。

正如我們?cè)凇稒C(jī)器學(xué)習(xí)中的數(shù)學(xué)——Moore-Penrose偽逆》看到的,我們可以使用Moore-Penrose求解欠定線性方程?;叵?span id="n5n3t3z" class="katex--inline"> X X X偽逆 X + X^+ X+的一個(gè)定義:
X + = lim ? α ↘ 0 ( X T X + α I ) ? 1 X T X^+=\lim_{\alpha\searrow0}(X^TX+\alpha I)^{-1}X^T X+=α0lim?(XTX+αI)?1XT

現(xiàn)在我們可以將《機(jī)器學(xué)習(xí)中的數(shù)學(xué)——Moore-Penrose偽逆》看作進(jìn)行具有權(quán)重衰減的線性回歸。具體來(lái)說(shuō),當(dāng)正則化系數(shù)趨向 0 0 0時(shí),式 X + = lim ? α ↘ 0 ( X T X + α I ) ? 1 X T X^+=\lim_{\alpha\searrow0}(X^TX+\alpha I)^{-1}X^T X+=limα0?(XTX+αI)?1XT是式 ( X T X + α I ) ? 1 X T y (X^TX+\alpha I)^{-1}X^Ty (XTX+αI)?1XTy的極限。因此,我們可以將偽逆解釋為使用正則化來(lái)穩(wěn)定欠定問(wèn)題。

參考文獻(xiàn):
[1] Lecun Y, Bengio Y, Hinton G. Deep learning[J]. Nature, 2015
[2] Aston Zhang, Zack C. Lipton, Mu Li, Alex J. Smola. Dive Into Deep Learning[J]. arXiv preprint arXiv:2106.11342, 2021.文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-525653.html

到了這里,關(guān)于深入理解深度學(xué)習(xí)——正則化(Regularization):正則化和欠約束問(wèn)題的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 深入理解深度學(xué)習(xí)——正則化(Regularization):作為約束的范數(shù)懲罰

    分類目錄:《深入理解深度學(xué)習(xí)》總目錄 考慮經(jīng)過(guò)參數(shù)范數(shù)正則化的代價(jià)函數(shù): J ~ ( θ ; X , y ) = J ( θ ; X , y ) + α Ω ( θ ) tilde{J}(theta;X, y) = J(theta;X, y) + alphaOmega(theta) J ~ ( θ ; X , y ) = J ( θ ; X , y ) + α Ω ( θ ) 回顧《拉格朗日乘子法(二):不等式約束與KKT條件》我們可以構(gòu)

    2024年02月08日
    瀏覽(19)
  • 深度學(xué)習(xí)記錄--正則化(regularization)

    深度學(xué)習(xí)記錄--正則化(regularization)

    正則化(regularization)是一種實(shí)用的減少 方差 ( variance )的方法,也即 避免過(guò)度擬合 L2正則化 又被稱為 權(quán)重衰減(weight dacay) ?在成本函數(shù)中加上正則項(xiàng): 其中??? ?由于在w的更新過(guò)程中會(huì)遞減,即權(quán)重衰減 w遞減的過(guò)程,實(shí)際上是w趨近于0的過(guò)程 在這個(gè)過(guò)程中,部分單元的影響

    2024年01月19日
    瀏覽(48)
  • 七篇深入理解機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的讀物推薦

    七篇深入理解機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的讀物推薦

    在這篇文章中將介紹7篇機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的論文或者圖書出版物,這些內(nèi)容都論文極大地影響了我對(duì)該領(lǐng)域的理解,如果你想深入了解機(jī)器學(xué)習(xí)的內(nèi)容,哪么推薦閱讀。 在自然語(yǔ)言處理和序列建模領(lǐng)域,Vaswani等人的一篇論文《Attention Is All You Need》徹底改變了這一領(lǐng)域。這

    2024年02月07日
    瀏覽(18)
  • 深入理解深度學(xué)習(xí)——Transformer:解碼器(Decoder)部分

    深入理解深度學(xué)習(xí)——Transformer:解碼器(Decoder)部分

    分類目錄:《深入理解深度學(xué)習(xí)》總目錄 相關(guān)文章: ·注意力機(jī)制(Attention Mechanism):基礎(chǔ)知識(shí) ·注意力機(jī)制(Attention Mechanism):注意力匯聚與Nadaraya-Watson核回歸 ·注意力機(jī)制(Attention Mechanism):注意力評(píng)分函數(shù)(Attention Scoring Function) ·注意力機(jī)制(Attention Mechanism):

    2024年02月10日
    瀏覽(33)
  • 深入理解深度學(xué)習(xí)——Transformer:編碼器(Encoder)部分

    深入理解深度學(xué)習(xí)——Transformer:編碼器(Encoder)部分

    分類目錄:《深入理解深度學(xué)習(xí)》總目錄 相關(guān)文章: ·注意力機(jī)制(AttentionMechanism):基礎(chǔ)知識(shí) ·注意力機(jī)制(AttentionMechanism):注意力匯聚與Nadaraya-Watson核回歸 ·注意力機(jī)制(AttentionMechanism):注意力評(píng)分函數(shù)(AttentionScoringFunction) ·注意力機(jī)制(AttentionMechanism):Bahda

    2024年02月08日
    瀏覽(26)
  • 深入理解深度學(xué)習(xí)——BERT派生模型:ALBERT(A Lite BERT)

    深入理解深度學(xué)習(xí)——BERT派生模型:ALBERT(A Lite BERT)

    分類目錄:《深入理解深度學(xué)習(xí)》總目錄 預(yù)訓(xùn)練語(yǔ)言模型的一個(gè)趨勢(shì)是使用更大的模型配合更多的數(shù)據(jù),以達(dá)到“大力出奇跡”的效果。隨著模型規(guī)模的持續(xù)增大,單塊GPU已經(jīng)無(wú)法容納整個(gè)預(yù)訓(xùn)練語(yǔ)言模型。為了解決這個(gè)問(wèn)題,谷歌提出了ALBERT,該模型與BERT幾乎沒(méi)有區(qū)別,

    2024年02月10日
    瀏覽(21)
  • 深入理解深度學(xué)習(xí)——注意力機(jī)制(Attention Mechanism):位置編碼(Positional Encoding)

    深入理解深度學(xué)習(xí)——注意力機(jī)制(Attention Mechanism):位置編碼(Positional Encoding)

    分類目錄:《深入理解深度學(xué)習(xí)》總目錄 相關(guān)文章: ·注意力機(jī)制(AttentionMechanism):基礎(chǔ)知識(shí) ·注意力機(jī)制(AttentionMechanism):注意力匯聚與Nadaraya-Watson核回歸 ·注意力機(jī)制(AttentionMechanism):注意力評(píng)分函數(shù)(AttentionScoringFunction) ·注意力機(jī)制(AttentionMechanism):Bahda

    2024年02月08日
    瀏覽(30)
  • 深入理解深度學(xué)習(xí)——BERT(Bidirectional Encoder Representations from Transformers):基礎(chǔ)知識(shí)

    分類目錄:《深入理解深度學(xué)習(xí)》總目錄 相關(guān)文章: · BERT(Bidirectional Encoder Representations from Transformers):基礎(chǔ)知識(shí) · BERT(Bidirectional Encoder Representations from Transformers):BERT的結(jié)構(gòu) · BERT(Bidirectional Encoder Representations from Transformers):MLM(Masked Language Model) · BERT(Bidirect

    2024年02月11日
    瀏覽(24)
  • 深入理解深度學(xué)習(xí)——GPT(Generative Pre-Trained Transformer):基礎(chǔ)知識(shí)

    深入理解深度學(xué)習(xí)——GPT(Generative Pre-Trained Transformer):基礎(chǔ)知識(shí)

    分類目錄:《深入理解深度學(xué)習(xí)》總目錄 相關(guān)文章: · GPT(Generative Pre-Trained Transformer):基礎(chǔ)知識(shí) · GPT(Generative Pre-Trained Transformer):在不同任務(wù)中使用GPT · GPT(Generative Pre-Trained Transformer):GPT-2與Zero-shot Learning · GPT(Generative Pre-Trained Transformer):GPT-3與Few-shot Learning

    2024年02月10日
    瀏覽(33)
  • 深入理解深度學(xué)習(xí)——BERT派生模型:T5(Text to Text Transfer Transformer)

    深入理解深度學(xué)習(xí)——BERT派生模型:T5(Text to Text Transfer Transformer)

    分類目錄:《深入理解深度學(xué)習(xí)》總目錄 T5的全稱為Text to Text Transfer Transformer,是谷歌提出的預(yù)訓(xùn)練語(yǔ)言模型領(lǐng)域的通用模型,該模型將所有自然語(yǔ)言問(wèn)題都轉(zhuǎn)化成文本到文本的形式,并用一個(gè)統(tǒng)一的模型解決。為了得到大一統(tǒng)的高質(zhì)量預(yù)訓(xùn)練語(yǔ)言模型,T5不可避免地走上了

    2024年02月10日
    瀏覽(22)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包