国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

機器學(xué)習(xí)-有監(jiān)督學(xué)習(xí)-神經(jīng)網(wǎng)絡(luò)

這篇具有很好參考價值的文章主要介紹了機器學(xué)習(xí)-有監(jiān)督學(xué)習(xí)-神經(jīng)網(wǎng)絡(luò)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

線性模型

  • 向量版本
    y = ? w , x ? + b y = \langle w, x \rangle + b y=?w,x?+b

分類與回歸

  • 懂得兩者區(qū)別
  • 激活函數(shù),損失函數(shù)

感知機模型

  • 感知機模型的本質(zhì)是線性模型,再加上激活函數(shù)
  • 訓(xùn)練數(shù)據(jù)、損失函數(shù)、梯度下降,小批量梯度下降
  • 神經(jīng)網(wǎng)絡(luò)算法整體流程:
  1. 初始化網(wǎng)絡(luò)
  2. 前向傳播
  3. 計算損失
  4. 計算微分
  5. 梯度下降
  6. 反向傳播
  7. 多輪迭代

激活函數(shù)

  • 給模型加入擬合非線性功能
  • 常見激活函數(shù):
    • Sigmoid 0-1 二分類
    • Tanh -1-1
    • relu:公認(rèn)的最好用的激活函數(shù)之一

維度詛咒

  • 神經(jīng)網(wǎng)絡(luò)可以很輕松的對隱藏層進行升降維
  • 升維后密度呈現(xiàn)指數(shù)形式逐漸下降,維度太大會過擬合

過擬合和欠擬合

  • 訓(xùn)練誤差:模型在訓(xùn)練集上的誤差
  • 泛化誤差:模型在同樣從原始樣本的分布中抽取的無限多數(shù)據(jù)樣本時模型誤差的期望?,F(xiàn)實世界不可能有無限多數(shù)據(jù),所以只能將模型應(yīng)用于獨立的測試集來估計泛化誤差。
  • 過擬合:訓(xùn)練誤差小,泛化誤差大。
  • 欠擬合:訓(xùn)練誤差大,泛化誤差大。
  • 解決過擬合:
    • 正則化:減少參數(shù)的大小
    • 數(shù)據(jù)增強:對原始數(shù)據(jù)做變化增加數(shù)據(jù)量
    • 降維:特征選擇
    • 集成學(xué)習(xí):多個模型集成在一起
    • 早停法:監(jiān)控訓(xùn)練集和驗證集的錯誤率
  • 解決欠擬合:
    • 添加新特征
    • 增加模型復(fù)雜度
    • 減少正則化系數(shù)

正則

  • 正則:約束模型復(fù)雜度來防止過擬合現(xiàn)象的一種手段。模型復(fù)雜度是由模型參數(shù)量大小和參數(shù)的可取值范圍共同決定的。
  • 正則兩個方向:約束模型參數(shù)量(dropout),約束模型取值范圍(weight decay)
  • 利用均方范數(shù)作為硬性和軟性限制
  • 衡量模型好壞可以看方差和偏差
\ 低方差 高方差
低偏差 預(yù)測準(zhǔn),且較集中 預(yù)測準(zhǔn),但較分散
高偏差 預(yù)測不準(zhǔn),且較集中 預(yù)測不準(zhǔn),且比較分散

機器學(xué)習(xí)-有監(jiān)督學(xué)習(xí)-神經(jīng)網(wǎng)絡(luò),深度學(xué)習(xí),機器學(xué)習(xí),學(xué)習(xí),神經(jīng)網(wǎng)絡(luò)

  • L1正則化:使參數(shù)稀疏化
    損失函數(shù) = 原始損失函數(shù) + λ 2 m ∑ i = 1 n ∣ w i ∣ \text{損失函數(shù)} = \text{原始損失函數(shù)} + \frac{\lambda}{2m}\sum_{i=1}^{n} |w_i| 損失函數(shù)=原始損失函數(shù)+2mλ?i=1n?wi?

  • L2正則化:降低參數(shù)范圍
    損失函數(shù) = 原始損失函數(shù) + λ 2 m ∑ i = 1 n w i 2 \text{損失函數(shù)} = \text{原始損失函數(shù)} + \frac{\lambda}{2m} \sum_{i=1}^{n} w_i^2 損失函數(shù)=原始損失函數(shù)+2mλ?i=1n?wi2?

  • Dropout 對神經(jīng)網(wǎng)絡(luò)的節(jié)點進行隨機的失活,訓(xùn)練時失活,預(yù)測是全部節(jié)點

  • 集成學(xué)習(xí)是打比賽進行提點的一個很重要的方法

數(shù)據(jù)增強

  • 成功的機器學(xué)習(xí)應(yīng)用不是擁有最好的算法,而是擁有最多的數(shù)據(jù)!
  • 當(dāng)數(shù)據(jù)到達(dá)一定級數(shù)后,擁有相近的高準(zhǔn)確度。

數(shù)值穩(wěn)定性

  • 計算機視覺,模型很大,數(shù)據(jù)集要好幾萬、好幾億。模型不大,要需要上百。
  • 梯度消失
  • 梯度爆炸
  • 解決方法:數(shù)據(jù)歸一化
    • Z-Score歸一化
    • 最大最小歸一化
      • 原因:提升模型精度和收斂速度

神經(jīng)網(wǎng)絡(luò)大家族

CNN

  • Image Search
  • Image Labeling
  • Image Segmantation
  • Object Detection
  • Object Tracking
  • OCR
  • Video Annotation
  • Recommendation
  • Image Classification
  • Robot perception
  • 以上分類不及1/10

RNN

  • 語法語義分析
  • 信息檢索
  • 自動文摘
  • 文本數(shù)據(jù)挖掘
  • 自動問答
  • 機器翻譯
  • 知識圖譜
  • 情感分析
  • 文本相似度
  • 文本糾錯
    原理:下一層的輸入不僅和原始輸入有關(guān),還和之前的輸出有關(guān)

GNN(圖神經(jīng)網(wǎng)絡(luò))

  • 芯片設(shè)計
  • 場景分析與問題推理
  • 推薦系統(tǒng)
  • 欺詐檢測與風(fēng)控相關(guān)
  • 知識圖譜
  • 道路交通的流量預(yù)測
  • 自動駕駛(無人機等場景)
  • 化學(xué),醫(yī)療等場景
  • 生物,制藥等場景
  • 社交網(wǎng)絡(luò)

原理:圖節(jié)點,邊和整體進行訓(xùn)練

GAN

  • 圖像超分辨率
  • 藝術(shù)創(chuàng)作
  • 圖像到圖像的翻譯(風(fēng)格遷移)
  • 文本到圖像的翻譯
  • 圖片編輯
  • 服裝翻譯
  • 照片表情符號
  • 圖片融合
  • 圖片修補

原理:生成器和判別器文章來源地址http://www.zghlxwxcb.cn/news/detail-725369.html

到了這里,關(guān)于機器學(xué)習(xí)-有監(jiān)督學(xué)習(xí)-神經(jīng)網(wǎng)絡(luò)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 機器學(xué)習(xí)&&深度學(xué)習(xí)——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN

    機器學(xué)習(xí)&&深度學(xué)習(xí)——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN

    ?????作者簡介:一位即將上大四,正專攻機器學(xué)習(xí)的保研er ??上期文章:機器學(xué)習(xí)深度學(xué)習(xí)—語言模型和數(shù)據(jù)集 ??訂閱專欄:機器學(xué)習(xí)深度學(xué)習(xí) 希望文章對你們有所幫助 在之前介紹了n元語法模型,其中單詞xt在時間步t的概率僅取決于前n-1個單詞。對于時間步t-(n-1)之前

    2024年02月13日
    瀏覽(25)
  • 機器學(xué)習(xí)&&深度學(xué)習(xí)——卷積神經(jīng)網(wǎng)絡(luò)(LeNet)

    機器學(xué)習(xí)&&深度學(xué)習(xí)——卷積神經(jīng)網(wǎng)絡(luò)(LeNet)

    ?????作者簡介:一位即將上大四,正專攻機器學(xué)習(xí)的保研er ??上期文章:機器學(xué)習(xí)深度學(xué)習(xí)——池化層 ??訂閱專欄:機器學(xué)習(xí)深度學(xué)習(xí) 希望文章對你們有所幫助 之前的內(nèi)容中曾經(jīng)將softmax回歸模型和多層感知機應(yīng)用于Fashion-MNIST數(shù)據(jù)集中的服裝圖片。為了能應(yīng)用他們,我

    2024年02月14日
    瀏覽(21)
  • 深度學(xué)習(xí)、機器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)之間的區(qū)別

    深度學(xué)習(xí)是機器學(xué)習(xí)的一個子類別,有效地是一個三層神經(jīng)網(wǎng)絡(luò)。這些神經(jīng)網(wǎng)絡(luò)旨在通過模仿人腦的功能來“學(xué)習(xí)”大量數(shù)據(jù),但它們遠(yuǎn)遠(yuǎn)達(dá)不到人腦的能力。盡管單層神經(jīng)網(wǎng)絡(luò)只能做出近似處理,但增加隱藏層可以幫助優(yōu)化和提高準(zhǔn)確性。 深度學(xué)習(xí)用于人工智能(AI)應(yīng)用

    2024年02月20日
    瀏覽(29)
  • 深度學(xué)習(xí)2.神經(jīng)網(wǎng)絡(luò)、機器學(xué)習(xí)、人工智能

    深度學(xué)習(xí)2.神經(jīng)網(wǎng)絡(luò)、機器學(xué)習(xí)、人工智能

    目錄 深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)、機器學(xué)習(xí)、人工智能的關(guān)系 大白話解釋深度學(xué)習(xí) 傳統(tǒng)機器學(xué)習(xí) VS 深度學(xué)習(xí) 深度學(xué)習(xí)的優(yōu)缺點 4種典型的深度學(xué)習(xí)算法 卷積神經(jīng)網(wǎng)絡(luò) – CNN 循環(huán)神經(jīng)網(wǎng)絡(luò) – RNN 生成對抗網(wǎng)絡(luò) – GANs 深度強化學(xué)習(xí) – RL 總結(jié) 深度學(xué)習(xí) 深度學(xué)習(xí)、機器學(xué)習(xí)、人工智能

    2024年02月11日
    瀏覽(142)
  • 機器學(xué)習(xí)算法匯總:人工神經(jīng)網(wǎng)絡(luò)、深度學(xué)習(xí)及其它

    根據(jù)數(shù)據(jù)類型的不同,對一個問題的建模有不同的方式。在機器學(xué)習(xí)或者人工智能領(lǐng)域,人們首先會考慮算法的學(xué)習(xí)方式。在機器學(xué)習(xí)領(lǐng)域,有幾種主要的學(xué)習(xí)方式。將算法按照學(xué)習(xí)方式分類是一個不錯的想法,這樣可以讓人們在建模和算法選擇的時候考慮能根據(jù)輸入數(shù)據(jù)來

    2024年01月17日
    瀏覽(31)
  • 機器學(xué)習(xí)六—深度學(xué)習(xí)算法之人工神經(jīng)網(wǎng)絡(luò)(ANN)

    機器學(xué)習(xí)六—深度學(xué)習(xí)算法之人工神經(jīng)網(wǎng)絡(luò)(ANN)

    人工神經(jīng)網(wǎng)絡(luò)的靈感來自其生物學(xué)對應(yīng)物。生物神經(jīng)網(wǎng)絡(luò)使大腦能夠以復(fù)雜的方式處理大量信息。大腦的生物神經(jīng)網(wǎng)絡(luò)由大約1000億個神經(jīng)元組成,這是大腦的基本處理單元。神經(jīng)元通過彼此之間巨大的連接(稱為突觸)來執(zhí)行其功能。 人體神經(jīng)元模型,下如圖: 接收區(qū) (

    2024年01月25日
    瀏覽(25)
  • 【AI】了解人工智能、機器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)、深度學(xué)習(xí)

    【AI】了解人工智能、機器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)、深度學(xué)習(xí)

    一、深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)的原理是什么? 深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)都是基于對人腦神經(jīng)系統(tǒng)的模擬。下面將分別解釋深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)的原理。 深度學(xué)習(xí)的原理: 深度學(xué)習(xí)是一種特殊的機器學(xué)習(xí),其模型結(jié)構(gòu)更為復(fù)雜,通常包括很多隱藏層。它依賴于神經(jīng)網(wǎng)絡(luò)進行模型訓(xùn)練和

    2024年02月06日
    瀏覽(104)
  • 【深度學(xué)習(xí)】【機器學(xué)習(xí)】用神經(jīng)網(wǎng)絡(luò)進行入侵檢測,NSL-KDD數(shù)據(jù)集,基于機器學(xué)習(xí)(深度學(xué)習(xí))判斷網(wǎng)絡(luò)入侵,網(wǎng)絡(luò)攻擊,流量異常

    【深度學(xué)習(xí)】【機器學(xué)習(xí)】用神經(jīng)網(wǎng)絡(luò)進行入侵檢測,NSL-KDD數(shù)據(jù)集,基于機器學(xué)習(xí)(深度學(xué)習(xí))判斷網(wǎng)絡(luò)入侵,網(wǎng)絡(luò)攻擊,流量異常

    【深度學(xué)習(xí)】用神經(jīng)網(wǎng)絡(luò)進行入侵檢測,NSL-KDD數(shù)據(jù)集,用網(wǎng)絡(luò)連接特征判斷是否是網(wǎng)絡(luò)入侵。 NSL-KDD數(shù)據(jù)集,有dos,u2r,r21,probe等類型的攻擊,和普通的正常的流量,即是有五個類別: 1、Normal:正常記錄 2、DOS:拒絕服務(wù)攻擊 3、PROBE:監(jiān)視和其他探測活動 4、R2L:來自遠(yuǎn)程機器

    2024年04月25日
    瀏覽(27)
  • 競賽項目 深度學(xué)習(xí)的口罩佩戴檢測 - opencv 卷積神經(jīng)網(wǎng)絡(luò) 機器視覺 深度學(xué)習(xí)

    競賽項目 深度學(xué)習(xí)的口罩佩戴檢測 - opencv 卷積神經(jīng)網(wǎng)絡(luò) 機器視覺 深度學(xué)習(xí)

    ?? 優(yōu)質(zhì)競賽項目系列,今天要分享的是 基于深度學(xué)習(xí)的口罩佩戴檢測【全網(wǎng)最詳細(xì)】 - opencv 卷積神經(jīng)網(wǎng)絡(luò) 機器視覺 深度學(xué)習(xí) 該項目較為新穎,適合作為競賽課題方向,學(xué)長非常推薦! ?? 更多資料, 項目分享: https://gitee.com/dancheng-senior/postgraduate 從2019年末開始,新型冠狀

    2024年02月13日
    瀏覽(27)
  • 機器學(xué)習(xí)31:《推薦系統(tǒng)-IV》深度神經(jīng)網(wǎng)絡(luò)DNN

    在《 推薦系統(tǒng)(二)協(xié)同過濾 》一文中,筆者介紹了如何使用矩陣分解來學(xué)習(xí)嵌入。矩陣分解具有一些局限性: 基礎(chǔ)矩陣分解只用了 UserID(QueryID) 和 ItemID 兩個維度的信息,所有學(xué)到的知識都蘊含在 User 向量和 Item 嵌入中??山忉屝圆?,同時,學(xué)習(xí)過程中很難融合更多有

    2024年02月16日
    瀏覽(22)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包