国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

《動手學(xué)深度學(xué)習(xí)》優(yōu)化算法學(xué)習(xí)&習(xí)題

這篇具有很好參考價值的文章主要介紹了《動手學(xué)深度學(xué)習(xí)》優(yōu)化算法學(xué)習(xí)&習(xí)題。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

優(yōu)化算法

梯度下降類

  • 小批量隨機梯度下降,通過平均梯度來減小方差

動量法

基礎(chǔ)

泄露平均法:用來取代梯度的計算
《動手學(xué)深度學(xué)習(xí)》優(yōu)化算法學(xué)習(xí)&習(xí)題,深度學(xué)習(xí),算法,學(xué)習(xí)

  • β \beta β這個參數(shù)控制了取多久時間的平均值

《動手學(xué)深度學(xué)習(xí)》優(yōu)化算法學(xué)習(xí)&習(xí)題,深度學(xué)習(xí),算法,學(xué)習(xí)
上述推理構(gòu)成了”加速”梯度方法的基礎(chǔ),例如具有動量的梯度。

  • 在優(yōu)化問題條件不佳的情況下(例如,有些方向的進展比其他方向慢得多,類似狹窄的峽谷)”加速”梯度還額外享受更有效的好處。
  • 此外,它們允許我們對隨后的梯度計算平均值,以獲得更穩(wěn)定的下降方向。 誠然,即使是對于無噪聲凸問題,加速度這方面也是動量如此起效的關(guān)鍵原因之一。

動量法原理

《動手學(xué)深度學(xué)習(xí)》優(yōu)化算法學(xué)習(xí)&習(xí)題,深度學(xué)習(xí),算法,學(xué)習(xí)

  • 動量法用過去梯度的平均值來替換梯度,這大大加快了收斂速度。

  • 對于無噪聲梯度下降和嘈雜隨機梯度下降,動量法都是可取的。

  • 動量法可以防止在隨機梯度下降的優(yōu)化過程停滯的問題。

  • 由于對過去的數(shù)據(jù)進行了指數(shù)降權(quán),有效梯度數(shù)為 1 1 ? β \frac{1}{1-\beta} 1?β1?

  • 在凸二次問題中,可以對動量法進行明確而詳細(xì)的分析。

  • 動量法的實現(xiàn)非常簡單,但它需要我們存儲額外的狀態(tài)向量(動量)

AdaGrad

稀疏特征與學(xué)習(xí)率

  • 假設(shè)我們正在訓(xùn)練一個語言模型。 為了獲得良好的準(zhǔn)確性,我們大多希望在訓(xùn)練的過程中降低學(xué)習(xí)率
  • 只有在這些不常見的特征出現(xiàn)時,與其相關(guān)的參數(shù)才會得到有意義的更新。

問題所在:

鑒于學(xué)習(xí)率下降,我們可能最終會面臨這樣的情況:常見特征的參數(shù)相當(dāng)迅速地收斂到最佳值,而對于不常見的特征,我們?nèi)匀狈ψ銐虻挠^測以確定其最佳值。 換句話說,學(xué)習(xí)率要么對于常見特征而言降低太慢,要么對于不常見特征而言降低太快。

《動手學(xué)深度學(xué)習(xí)》優(yōu)化算法學(xué)習(xí)&習(xí)題,深度學(xué)習(xí),算法,學(xué)習(xí)

  • 一般而言,計算特征值和特征向量要比解決實際問題“貴”得多。
  • 然準(zhǔn)確計算特征值可能會很昂貴,但即便只是大致猜測并計算它們,也可能已經(jīng)比不做任何事情好得多。 特別是,我們可以使用的對角線條目并相應(yīng)地重新縮放它。 這比計算特征值開銷小的多。

《動手學(xué)深度學(xué)習(xí)》優(yōu)化算法學(xué)習(xí)&習(xí)題,深度學(xué)習(xí),算法,學(xué)習(xí)

《動手學(xué)深度學(xué)習(xí)》優(yōu)化算法學(xué)習(xí)&習(xí)題,深度學(xué)習(xí),算法,學(xué)習(xí)
《動手學(xué)深度學(xué)習(xí)》優(yōu)化算法學(xué)習(xí)&習(xí)題,深度學(xué)習(xí),算法,學(xué)習(xí)

《動手學(xué)深度學(xué)習(xí)》優(yōu)化算法學(xué)習(xí)&習(xí)題,深度學(xué)習(xí),算法,學(xué)習(xí)

RMSProp

《動手學(xué)深度學(xué)習(xí)》優(yōu)化算法學(xué)習(xí)&習(xí)題,深度學(xué)習(xí),算法,學(xué)習(xí)
《動手學(xué)深度學(xué)習(xí)》優(yōu)化算法學(xué)習(xí)&習(xí)題,深度學(xué)習(xí),算法,學(xué)習(xí)
《動手學(xué)深度學(xué)習(xí)》優(yōu)化算法學(xué)習(xí)&習(xí)題,深度學(xué)習(xí),算法,學(xué)習(xí)

  • 在優(yōu)化算法中,泄露平均值是指在每次迭代中,算法泄露的信息的平均值(這里泄露的是上一次梯度二次矩)。
    《動手學(xué)深度學(xué)習(xí)》優(yōu)化算法學(xué)習(xí)&習(xí)題,深度學(xué)習(xí),算法,學(xué)習(xí)

Adam

  • 核心點:使用指數(shù)加權(quán)移動平均值來估算梯度的動量和二次矩
    《動手學(xué)深度學(xué)習(xí)》優(yōu)化算法學(xué)習(xí)&習(xí)題,深度學(xué)習(xí),算法,學(xué)習(xí)
  • 注意初始化,v,s均等于0會有一個很大的初始偏差,故采用指數(shù)初始化

縮放梯度:

《動手學(xué)深度學(xué)習(xí)》優(yōu)化算法學(xué)習(xí)&習(xí)題,深度學(xué)習(xí),算法,學(xué)習(xí)


  • Adam算法也存在一些問題: 即使在凸環(huán)境下,當(dāng) s t s_t st?的二次矩估計值爆炸時,它可能無法收斂

  • Adam算法將許多優(yōu)化算法的功能結(jié)合到了相當(dāng)強大的更新規(guī)則中。

  • Adam算法在RMSProp算法基礎(chǔ)上創(chuàng)建的,還在小批量的隨機梯度上使用EWMA。

  • 在估計動量和二次矩時,Adam算法使用偏差校正來調(diào)整緩慢的啟動速度文章來源地址http://www.zghlxwxcb.cn/news/detail-635459.html

到了這里,關(guān)于《動手學(xué)深度學(xué)習(xí)》優(yōu)化算法學(xué)習(xí)&習(xí)題的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 深度學(xué)習(xí)優(yōu)化算法

    優(yōu)化算法 要訓(xùn)練一個好的 CNN 模型,通常需要很多訓(xùn)練數(shù)據(jù),尤其是模型結(jié)構(gòu)比較復(fù)雜的時候, 比如 ImageNet 數(shù)據(jù)集上訓(xùn)練的模型。雖然深度學(xué)習(xí)在 ImageNet 上取得了巨大成功,但是一個 現(xiàn)實的問題是,很多應(yīng)用的訓(xùn)練集是較小的,如何在這種情況下應(yīng)用深度學(xué)習(xí)呢?有三種方

    2024年02月19日
    瀏覽(24)
  • 深度學(xué)習(xí)中的優(yōu)化算法

    深度學(xué)習(xí)中的優(yōu)化算法

    本章我們主要講解一下深度學(xué)習(xí)中的一些優(yōu)化算法。 優(yōu)化和深度學(xué)習(xí)的目標(biāo)是根本不同的。前者主要關(guān)注的是最小化目標(biāo),后者則關(guān)注在給定有限數(shù)據(jù)量的情況下尋找合適的模型。 例如,訓(xùn)練誤差和泛化誤差通常不同:由于優(yōu)化算法的目標(biāo)函數(shù)通常是基于訓(xùn)練數(shù)據(jù)集的損失

    2024年02月14日
    瀏覽(19)
  • 機器學(xué)習(xí)&&深度學(xué)習(xí)——隨機梯度下降算法(及其優(yōu)化)

    在我們沒有辦法得到解析解的時候,我們可以用過梯度下降來進行優(yōu)化,這種方法幾乎可以所有深度學(xué)習(xí)模型。 關(guān)于優(yōu)化的東西,我自己曾經(jīng)研究過智能排班算法和優(yōu)化,所以關(guān)于如何找局部最小值,以及如何跳出局部最小值的一些基本思想是有感觸的,隨機梯度算法和其優(yōu)

    2024年02月15日
    瀏覽(24)
  • 深度學(xué)習(xí)中的優(yōu)化算法之RMSProp

    深度學(xué)習(xí)中的優(yōu)化算法之RMSProp

    ? ? ? 之前在https://blog.csdn.net/fengbingchun/article/details/124766283 中介紹過深度學(xué)習(xí)中的優(yōu)化算法AdaGrad,這里介紹下深度學(xué)習(xí)的另一種優(yōu)化算法RMSProp。 ? ? ? RMSProp全稱為 Root Mean Square Propagation ,是一種未發(fā)表的自適應(yīng)學(xué)習(xí)率方法 ,由Geoff Hinton提出,是梯度下降優(yōu)化算法的擴展。

    2023年04月08日
    瀏覽(17)
  • 《動手學(xué)深度學(xué)習(xí)》——深度學(xué)習(xí)計算

    參考資料: 5. 深度學(xué)習(xí)計算 — 動手學(xué)深度學(xué)習(xí) 2.0.0 documentation (d2l.ai) 為了實現(xiàn)這些復(fù)雜的網(wǎng)絡(luò),我們引入了神經(jīng)網(wǎng)絡(luò)塊的概念。塊(block)可以描述單個層、由多個層組成的組件或整個模型本身。 從編程的角度來看,塊由類(class)表示。它的任何子類都必須定義一個將其

    2024年02月12日
    瀏覽(23)
  • 李沐《動手學(xué)深度學(xué)習(xí)》深度學(xué)習(xí)計算

    李沐《動手學(xué)深度學(xué)習(xí)》深度學(xué)習(xí)計算

    李沐《動手學(xué)深度學(xué)習(xí)》預(yù)備知識 張量操作及數(shù)據(jù)處理 李沐《動手學(xué)深度學(xué)習(xí)》預(yù)備知識 線性代數(shù)及微積分 李沐《動手學(xué)深度學(xué)習(xí)》線性神經(jīng)網(wǎng)絡(luò) 線性回歸 李沐《動手學(xué)深度學(xué)習(xí)》線性神經(jīng)網(wǎng)絡(luò) softmax回歸 李沐《動手學(xué)深度學(xué)習(xí)》多層感知機 模型概念和代碼實現(xiàn) 李沐《

    2024年01月22日
    瀏覽(17)
  • MATLAB算法實戰(zhàn)應(yīng)用案例精講-【深度學(xué)習(xí)】基于優(yōu)化的元學(xué)習(xí)

    目錄 元學(xué)習(xí) 1 元學(xué)習(xí)概念 2 元學(xué)習(xí)含義 3 元學(xué)習(xí)單位 4 基學(xué)習(xí)器和元學(xué)習(xí)器

    2024年02月11日
    瀏覽(33)
  • 【李沐】動手學(xué)深度學(xué)習(xí) 學(xué)習(xí)筆記

    【李沐】動手學(xué)深度學(xué)習(xí) 學(xué)習(xí)筆記

    你好! 這是【李沐】動手學(xué)深度學(xué)習(xí)v2-基于pytorch版本的學(xué)習(xí)筆記 教材 源代碼 安裝教程(安裝pytorch不要用pip,改成conda,pip太慢了,下載不下來) 個人推薦學(xué)習(xí)學(xué)習(xí)筆記 數(shù)據(jù)操作 ??本節(jié)代碼文件在源代碼文件的chapter_preliminaries/ndarray.ipynb中 創(chuàng)建數(shù)組 ??創(chuàng)建數(shù)組需要:

    2024年02月16日
    瀏覽(63)
  • 動手學(xué)深度學(xué)習(xí) - 學(xué)習(xí)環(huán)境配置

    動手學(xué)深度學(xué)習(xí) - 學(xué)習(xí)環(huán)境配置

    參考: https://www.jb51.net/article/275192.htm https://blog.csdn.net/m0_54179726/article/details/130522489 miniconda3 下載完,打開安裝包,按照默認(rèn)提示,下一步下一步,到這里要牢記安裝目錄,之后配置環(huán)境變量會用到; 點擊新建,分別添加以下三個路徑: 安裝路徑Miniconda3 安裝路徑Miniconda3Sc

    2024年02月07日
    瀏覽(20)
  • 李沐《動手學(xué)深度學(xué)習(xí)》多層感知機 深度學(xué)習(xí)相關(guān)概念

    李沐《動手學(xué)深度學(xué)習(xí)》多層感知機 深度學(xué)習(xí)相關(guān)概念

    李沐《動手學(xué)深度學(xué)習(xí)》預(yù)備知識 張量操作及數(shù)據(jù)處理 李沐《動手學(xué)深度學(xué)習(xí)》預(yù)備知識 線性代數(shù)及微積分 李沐《動手學(xué)深度學(xué)習(xí)》線性神經(jīng)網(wǎng)絡(luò) 線性回歸 李沐《動手學(xué)深度學(xué)習(xí)》線性神經(jīng)網(wǎng)絡(luò) softmax回歸 李沐《動手學(xué)深度學(xué)習(xí)》多層感知機 模型概念和代碼實現(xiàn) 教材:

    2024年01月20日
    瀏覽(53)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包