国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

TensorFlow入門(十七、神經(jīng)元的擬合原理)

這篇具有很好參考價(jià)值的文章主要介紹了TensorFlow入門(十七、神經(jīng)元的擬合原理)。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究,神經(jīng)網(wǎng)絡(luò)是由多個(gè)神經(jīng)元組成,。一個(gè)神經(jīng)元由以下幾個(gè)關(guān)鍵知識點(diǎn)組成:

? ? ? ? ????????????????????????①激活函數(shù)? ? ? ? ? ? ? ? ②損失函數(shù)? ? ? ? ? ? ? ? ③梯度下降

單個(gè)神經(jīng)元的網(wǎng)絡(luò)模型如圖所示

TensorFlow入門(十七、神經(jīng)元的擬合原理),TensorFlow入門,tensorflow,人工智能,python,深度學(xué)習(xí)

用計(jì)算公式表達(dá)如下:

TensorFlow入門(十七、神經(jīng)元的擬合原理),TensorFlow入門,tensorflow,人工智能,python,深度學(xué)習(xí)

z為輸出的結(jié)果,x為輸入,w為權(quán)重,b為偏置值。z的計(jì)算過程是將輸入的x與其對應(yīng)的w相乘,然后再把結(jié)果加上偏置值b。

模型每次的訓(xùn)練學(xué)習(xí)是為了調(diào)整w和b從而得到一個(gè)合適的值,最終由這個(gè)值配合運(yùn)算公式所形成的邏輯就是神經(jīng)網(wǎng)絡(luò)的模型??梢钥匆幌麓竽X細(xì)胞里的神經(jīng)突觸。它和我們建立的模型有點(diǎn)神似。

TensorFlow入門(十七、神經(jīng)元的擬合原理),TensorFlow入門,tensorflow,人工智能,python,深度學(xué)習(xí)

? ? ? ? 大腦神經(jīng)細(xì)胞是靠生物電來傳遞信號的,可以把它理解成經(jīng)過模型的具體數(shù)值

? ? ? ? 神經(jīng)細(xì)胞相連的樹突有粗有細(xì),顯然對通過不同粗細(xì)連接的生物電信號,會(huì)有不同的影響。這類似權(quán)重w,因?yàn)槊總€(gè)輸入節(jié)點(diǎn)都會(huì)與相關(guān)連接的w相乘,也就實(shí)現(xiàn)了對信號的放大、縮小處理

? ? ? ? 中間的細(xì)胞體是不知道如何運(yùn)作的??梢詫⑺休斎氲男盘柦?jīng)過w變換之后,再添加一個(gè)額外的偏置量b,把它們加在一起求和,然后再選擇一個(gè)模擬細(xì)胞體處理的函數(shù)(即激活函數(shù))來實(shí)現(xiàn)整個(gè)過程的仿真。當(dāng)通過調(diào)整w和b得到一個(gè)合適的值后,再配合合適的激活函數(shù),就會(huì)發(fā)現(xiàn)它可以產(chǎn)生很好的擬合效果,從而得出細(xì)胞體的運(yùn)作邏輯。

正向傳播

? ? ? ? 模擬細(xì)胞體的仿真過程中,將數(shù)據(jù)從輸入到輸出的這種流向傳遞過程,稱為正向傳播。且該過程是在一個(gè)假設(shè)有合適的w和b的基礎(chǔ)上,才可以實(shí)現(xiàn)對現(xiàn)實(shí)環(huán)境的正確擬合。然而,在現(xiàn)實(shí)環(huán)境中,是不知道w和b的值具體是多少才算正常的。

反向傳播

? ? ? ? 反向傳播的目的 : 告訴模型w和b的值調(diào)整到多少合適。

? ? ? ? 在一開始沒有得到合適的權(quán)重時(shí),正向傳播生成的結(jié)果與實(shí)際的標(biāo)簽是有誤差的,反向傳播就是要把這個(gè)誤差傳遞給權(quán)重,讓權(quán)重做適當(dāng)?shù)卣{(diào)整來達(dá)到一個(gè)合適的輸出。

? ? ? ? 代碼示例如下:

#反向優(yōu)化
cost = tf.reduce_mean(tf.square(Y - z))
learning_rate = 0.01
#使用梯度下降算法
optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(cost)

? ? ? ? 實(shí)際訓(xùn)練過程中,模型需要通過多次迭代一點(diǎn)一點(diǎn)的修正,直到輸出值與實(shí)際標(biāo)簽值的誤差小于某個(gè)閾值為止。這個(gè)過程中,還需要將輸出的誤差轉(zhuǎn)化為權(quán)重的誤差,經(jīng)常使用的算法是誤差反向傳播算法,也就是BP算法。

? ? ? ? 為了要讓損失值變得最小化,需要通過對其求導(dǎo)的方式,找到最小值時(shí)刻的函數(shù)切線斜率(也就是梯度),從而讓w和b的值沿著這個(gè)梯度來調(diào)整。至于每次調(diào)整多少,我們引入一個(gè)叫做"學(xué)習(xí)率"的參數(shù)來控制,這樣通過不斷的迭代,使誤差逐步接近最小值,最終找到w和b的合適值,達(dá)到擬合的效果。

誤差反向傳播算法-BP算法的思想

? ? ? ? 反向傳播使用的BP算法是應(yīng)用較為廣泛的一種參數(shù)學(xué)習(xí)算法。它是一種按照誤差逆向傳播算法訓(xùn)練的多層前饋神經(jīng)網(wǎng)絡(luò)。

? ? ? ? 該算法的核心思想就是通過輸出層得到輸出結(jié)果和期望輸出的誤差來間接調(diào)整隱層的權(quán)值。

? ? ? ? BP算法的模型示意圖如下:

TensorFlow入門(十七、神經(jīng)元的擬合原理),TensorFlow入門,tensorflow,人工智能,python,深度學(xué)習(xí)

? ? ? ? BP算法的學(xué)習(xí)過程由信號的正向傳播(求損失)與誤差的反向傳播(誤差回傳)兩個(gè)過程組成:

? ? ? ? ? ? ? ? 正向傳播FP(求損失) : 在這個(gè)過程中,根據(jù)輸入的樣本、給定的初始化權(quán)重值w和偏置量b,計(jì)算最終輸出值以及輸出值與實(shí)際值之間的損失值。如果損失值不在給定的范圍內(nèi)則進(jìn)行反向傳播的過程,否則停止w、b的更新。

? ? ? ? ? ? ? ? 反向傳播BP(回傳誤差) : 將輸出以某種形式通過隱層向輸入層反傳,并將誤差分?jǐn)偨o各層的所有單元,從而獲得各層單元的誤差信號,此誤差信號即作為修正各單元權(quán)值的依據(jù)。

? ? ? ? 由于BP算法是通過傳遞誤差值δ進(jìn)行更新求解權(quán)重值w和偏置值b,所以BP算法也常常被叫做δ算法。文章來源地址http://www.zghlxwxcb.cn/news/detail-726854.html

到了這里,關(guān)于TensorFlow入門(十七、神經(jīng)元的擬合原理)的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 自適應(yīng)PID算法學(xué)習(xí)(01)——單神經(jīng)元PID控制

    自適應(yīng)PID算法學(xué)習(xí)(01)——單神經(jīng)元PID控制

    ??單神經(jīng)元含有n個(gè)輸入,僅1個(gè)輸出,每個(gè)輸入端可記作 x i ( i = 1 , 2 , . . . n ) x_i (i=1,2,...n) x i ? ( i = 1 , 2 , ... n ) ,若該神經(jīng)元為多元組成網(wǎng)絡(luò)中某一層(輸入層/輸出層/隱含層)其中的一個(gè)單元,記該神經(jīng)元輸出為 o j ( j = 1 , 2 , . . . ) o_j(j=1,2,...) o j ? ( j = 1 , 2 , ... ) ;不

    2024年02月16日
    瀏覽(22)
  • 【人工智能】神經(jīng)網(wǎng)絡(luò)、M-P_神經(jīng)元模型、激活函數(shù)、神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)、學(xué)習(xí)網(wǎng)絡(luò)參數(shù)、代價(jià)定義、總代價(jià)

    ? 輸入:來自其它n個(gè)神經(jīng)元傳遞過來的輸入信號 ? 處理:輸入信號通過帶權(quán)重的連接進(jìn)行傳遞, 神經(jīng)元接受到總輸入值將與神經(jīng)元的閾值進(jìn)行比較 ? 輸出:通過激活函數(shù)的處理以得到輸出

    2024年02月16日
    瀏覽(29)
  • 【人工智能】神經(jīng)元數(shù)學(xué)模型的基本方程式及其意義詳細(xì)說明

    【人工智能】神經(jīng)元數(shù)學(xué)模型的基本方程式及其意義詳細(xì)說明

    神經(jīng)元數(shù)學(xué)模型的基本方程式及其意義 在神經(jīng)科學(xué)中,數(shù)學(xué)模型被廣泛應(yīng)用于理解神經(jīng)元及其網(wǎng)絡(luò)的激活、溝通和計(jì)算作用。本文將詳細(xì)討論一些典型神經(jīng)元數(shù)學(xué)模型的基本方程式及其意義,以表達(dá)對神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)認(rèn)知和行為功能的認(rèn)識。 一、Hodgkin-Huxley 模型

    2024年02月07日
    瀏覽(26)
  • 人體大腦神經(jīng)元運(yùn)行模擬器!讓你直觀體驗(yàn)大腦的運(yùn)行方式

    人體大腦神經(jīng)元運(yùn)行模擬器!讓你直觀體驗(yàn)大腦的運(yùn)行方式

    最近沾花在網(wǎng)上看到一個(gè) 神奇 的網(wǎng)站:A Neural Network Playground 經(jīng)過沾花的親手測試,發(fā)現(xiàn)這玩意兒能模擬人體大腦神經(jīng)元的運(yùn)行! 下面是網(wǎng)址: A Neural Network Playground OK,下面來教大家怎么用: 使用時(shí),選擇數(shù)據(jù)集中的一種數(shù)據(jù),相應(yīng)地調(diào)整神經(jīng)元的類型和網(wǎng)絡(luò)形態(tài)(至于怎

    2024年02月14日
    瀏覽(23)
  • 鯨魚算法優(yōu)化LSTM超參數(shù)-神經(jīng)元個(gè)數(shù)-dropout-batch_size

    鯨魚算法優(yōu)化LSTM超參數(shù)-神經(jīng)元個(gè)數(shù)-dropout-batch_size

    1、摘要 本文主要講解:使用鯨魚算法優(yōu)化LSTM超參數(shù)-神經(jīng)元個(gè)數(shù)-dropout-batch_size 主要思路: 鯨魚算法 Parameters : 迭代次數(shù)、鯨魚的維度、鯨魚的數(shù)量, 參數(shù)的上限,參數(shù)的下限 LSTM Parameters 神經(jīng)網(wǎng)絡(luò)第一層神經(jīng)元個(gè)數(shù)、神經(jīng)網(wǎng)絡(luò)第二層神經(jīng)元個(gè)數(shù)、dropout比率、batch_size 開始

    2023年04月16日
    瀏覽(31)
  • 【人工智能】人類大腦中的神經(jīng)元群體是如何相互作用,進(jìn)而產(chǎn)生感知和行為的?
  • 【AI】《動(dòng)手學(xué)-深度學(xué)習(xí)-PyTorch版》筆記(十七):卷積神經(jīng)網(wǎng)絡(luò)入門

    我們在前面學(xué)習(xí)的多層感知機(jī)中,已經(jīng)認(rèn)識了全鏈接層,缺點(diǎn)很明顯,在稍微大點(diǎn)的網(wǎng)絡(luò)模型中,參數(shù)成指數(shù)級別增長。參數(shù)量很快就達(dá)到數(shù)十億,這樣的量級幾乎無法計(jì)算。為此科學(xué)家們想出一個(gè)減少參數(shù)的方法:卷積。 從全鏈接層到卷積的推論,使用如下兩個(gè)原則: 平

    2024年02月13日
    瀏覽(59)
  • OpenCV(三十七):擬合直線、三角形和圓形

    OpenCV(三十七):擬合直線、三角形和圓形

    1.點(diǎn)集擬合的含義 ? ? ? ?點(diǎn)集擬合是一種通過擬合函數(shù)或曲線來近似描述給定離散數(shù)據(jù)點(diǎn)的技術(shù),在點(diǎn)集擬合中,可以使用不同的函數(shù)或曲線擬合方法來擬合直線、三角形和圓形。 直線擬合 :對于給定的二維數(shù)據(jù)點(diǎn)集合,可以使用最小二乘法來擬合一條直線。 三角形擬合

    2024年02月03日
    瀏覽(27)
  • 【深度學(xué)習(xí)_TensorFlow】過擬合

    【深度學(xué)習(xí)_TensorFlow】過擬合

    過擬合與欠擬合 欠擬合: 是指在模型學(xué)習(xí)能力較弱,而數(shù)據(jù)復(fù)雜度較高的情況下,模型無法學(xué)習(xí)到數(shù)據(jù)集中的“一般規(guī)律”,因而導(dǎo)致泛化能力弱。此時(shí),算法在訓(xùn)練集上表現(xiàn)一般,但在測試集上表現(xiàn)較差,泛化性能不佳。 過擬合: 是指模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)很好,但在測

    2024年02月10日
    瀏覽(17)
  • BP神經(jīng)網(wǎng)絡(luò)入門(原理+matlab代碼實(shí)現(xiàn))

    BP神經(jīng)網(wǎng)絡(luò)入門(原理+matlab代碼實(shí)現(xiàn))

    對于很多剛?cè)腴T的小伙伴來說,神經(jīng)網(wǎng)絡(luò)可能比較陌生。神經(jīng)網(wǎng)絡(luò)其實(shí)是對人認(rèn)知物體的一種仿真。比如幼兒園老師再教小朋友認(rèn)動(dòng)物的時(shí)候,會(huì)讓記住一些特征:比如兔子有長長的耳朵,愛吃蘿卜和青菜.........,神經(jīng)網(wǎng)絡(luò)也是這樣通過構(gòu)建特征值之間的關(guān)系來預(yù)測一個(gè)較為可

    2023年04月23日
    瀏覽(24)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包