国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

深度學(xué)習(xí)4. 循環(huán)神經(jīng)網(wǎng)絡(luò) – Recurrent Neural Network | RNN

這篇具有很好參考價值的文章主要介紹了深度學(xué)習(xí)4. 循環(huán)神經(jīng)網(wǎng)絡(luò) – Recurrent Neural Network | RNN。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

目錄

循環(huán)神經(jīng)網(wǎng)絡(luò) – Recurrent Neural Network | RNN

為什么需要 RNN ?獨特價值是什么?

RNN 的基本原理

RNN 的優(yōu)化算法

RNN 到 LSTM – 長短期記憶網(wǎng)絡(luò)

從 LSTM 到 GRU

RNN 的應(yīng)用和使用場景

總結(jié)

百度百科+維基百科


循環(huán)神經(jīng)網(wǎng)絡(luò) – Recurrent Neural Network | RNN

為什么需要 RNN ?獨特價值是什么?

卷積神經(jīng)網(wǎng)絡(luò)和普通的算法大部分都是輸入和輸出的一一對應(yīng),也就是一個輸入得到一個輸出。不同的輸入之間是沒有聯(lián)系的。

但是在某些場景中,一個輸入就不夠了!

為了填好下面的空,取前面任何一個詞都不合適,我們不但需要知道前面所有的詞,還需要知道詞之間的順序。

這種需要處理「序列數(shù)據(jù) – 一串相互依賴的數(shù)據(jù)流」的場景就需要使用 RNN 來解決了。

典型的集中序列數(shù)據(jù):

  1. 文章里的文字內(nèi)容
  2. 語音里的音頻內(nèi)容
  3. 股票市場中的價格走勢
  4. ……

RNN 之所以能夠有效的處理序列數(shù)據(jù),主要是基于他的比較特殊的運行原理。下面給大家介紹一下 RNN 的基本運行原理。

RNN 的基本原理

傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)比較簡單:輸入層 – 隱藏層 – 輸出層。如下圖所示:

深度學(xué)習(xí)4. 循環(huán)神經(jīng)網(wǎng)絡(luò) – Recurrent Neural Network | RNN,2023 AI,深度學(xué)習(xí),rnn,人工智能

RNN 跟傳統(tǒng)神經(jīng)網(wǎng)絡(luò)最大的區(qū)別在于每次都會將前一次的輸出結(jié)果,帶到下一次的隱藏層中,一起訓(xùn)練。如下圖所示:

深度學(xué)習(xí)4. 循環(huán)神經(jīng)網(wǎng)絡(luò) – Recurrent Neural Network | RNN,2023 AI,深度學(xué)習(xí),rnn,人工智能

下面用一個具體的案例來看看 RNN 是如何工作的:

假如需要判斷用戶的說話意圖(問天氣、問時間、設(shè)置鬧鐘…),用戶說了一句“what time is it?”我們需要先對這句話進行分詞:

深度學(xué)習(xí)4. 循環(huán)神經(jīng)網(wǎng)絡(luò) – Recurrent Neural Network | RNN,2023 AI,深度學(xué)習(xí),rnn,人工智能

然后按照順序輸入 RNN ,我們先將 “what”作為 RNN 的輸入,得到輸出「01」

深度學(xué)習(xí)4. 循環(huán)神經(jīng)網(wǎng)絡(luò) – Recurrent Neural Network | RNN,2023 AI,深度學(xué)習(xí),rnn,人工智能

然后,我們按照順序,將“time”輸入到 RNN 網(wǎng)絡(luò),得到輸出「02」。

這個過程我們可以看到,輸入 “time” 的時候,前面 “what” 的輸出也產(chǎn)生了影響(隱藏層中有一半是黑色的)。

深度學(xué)習(xí)4. 循環(huán)神經(jīng)網(wǎng)絡(luò) – Recurrent Neural Network | RNN,2023 AI,深度學(xué)習(xí),rnn,人工智能

以此類推,前面所有的輸入都對未來的輸出產(chǎn)生了影響,大家可以看到圓形隱藏層中包含了前面所有的顏色。如下圖所示:

深度學(xué)習(xí)4. 循環(huán)神經(jīng)網(wǎng)絡(luò) – Recurrent Neural Network | RNN,2023 AI,深度學(xué)習(xí),rnn,人工智能

當(dāng)我們判斷意圖的時候,只需要最后一層的輸出「05」,如下圖所示:

深度學(xué)習(xí)4. 循環(huán)神經(jīng)網(wǎng)絡(luò) – Recurrent Neural Network | RNN,2023 AI,深度學(xué)習(xí),rnn,人工智能

RNN 的缺點也比較明顯

深度學(xué)習(xí)4. 循環(huán)神經(jīng)網(wǎng)絡(luò) – Recurrent Neural Network | RNN,2023 AI,深度學(xué)習(xí),rnn,人工智能

通過上面的例子,我們已經(jīng)發(fā)現(xiàn),短期的記憶影響較大(如橙色區(qū)域),但是長期的記憶影響就很小(如黑色和綠色區(qū)域),這就是 RNN 存在的短期記憶問題。

  1. RNN 有短期記憶問題,無法處理很長的輸入序列
  2. 訓(xùn)練 RNN 需要投入極大的成本

由于 RNN 的短期記憶問題,后來又出現(xiàn)了基于 RNN 的優(yōu)化算法,下面給大家簡單介紹一下。

RNN 的優(yōu)化算法

RNN 到 LSTM – 長短期記憶網(wǎng)絡(luò)

RNN 是一種死板的邏輯,越晚的輸入影響越大,越早的輸入影響越小,且無法改變這個邏輯。

LSTM?做的最大的改變就是打破了這個死板的邏輯,而改用了一套靈活了邏輯——只保留重要的信息。

簡單說就是:抓重點!(很多核心算法就是改權(quán)重:抓大放小)

深度學(xué)習(xí)4. 循環(huán)神經(jīng)網(wǎng)絡(luò) – Recurrent Neural Network | RNN,2023 AI,深度學(xué)習(xí),rnn,人工智能

舉個例子,我們先快速的閱讀下面這段話:

深度學(xué)習(xí)4. 循環(huán)神經(jīng)網(wǎng)絡(luò) – Recurrent Neural Network | RNN,2023 AI,深度學(xué)習(xí),rnn,人工智能

當(dāng)我們快速閱讀完之后,可能只會記住下面幾個重點:

深度學(xué)習(xí)4. 循環(huán)神經(jīng)網(wǎng)絡(luò) – Recurrent Neural Network | RNN,2023 AI,深度學(xué)習(xí),rnn,人工智能

?

LSTM 類似上面的劃重點,他可以保留較長序列數(shù)據(jù)中的「重要信息」,忽略不重要的信息。這樣就解決了 RNN 短期記憶的問題。

從 LSTM 到 GRU

Gated Recurrent Unit – GRU 是 LSTM 的一個變體。他保留了 LSTM 劃重點,遺忘不重要信息的特點,在long-term 傳播的時候也不會被丟失。

深度學(xué)習(xí)4. 循環(huán)神經(jīng)網(wǎng)絡(luò) – Recurrent Neural Network | RNN,2023 AI,深度學(xué)習(xí),rnn,人工智能

GRU 主要是在 LSTM 的模型上做了一些簡化和調(diào)整,在訓(xùn)練數(shù)據(jù)集比較大的情況下可以節(jié)省很多時間。

RNN 的應(yīng)用和使用場景

只要涉及到序列數(shù)據(jù)的處理問題,都可以使用到,NLP 就是一個典型的應(yīng)用場景。

深度學(xué)習(xí)4. 循環(huán)神經(jīng)網(wǎng)絡(luò) – Recurrent Neural Network | RNN,2023 AI,深度學(xué)習(xí),rnn,人工智能

文本生成:類似上面的填空題,給出前后文,然后預(yù)測空格中的詞是什么。

機器翻譯:翻譯工作也是典型的序列問題,詞的順序直接影響了翻譯的結(jié)果。

語音識別:根據(jù)輸入音頻判斷對應(yīng)的文字是什么。

生成圖像描述:類似看圖說話,給一張圖,能夠描述出圖片中的內(nèi)容。這個往往是 RNN 和 CNN 的結(jié)合。

深度學(xué)習(xí)4. 循環(huán)神經(jīng)網(wǎng)絡(luò) – Recurrent Neural Network | RNN,2023 AI,深度學(xué)習(xí),rnn,人工智能

?

視頻標(biāo)記:他將視頻分解為圖片,然后用圖像描述來描述圖片內(nèi)容。

總結(jié)

RNN的獨特價值在于:它能有效的處理序列數(shù)據(jù)。比如:文章內(nèi)容、語音音頻、股票價格走勢…

之所以他能處理序列數(shù)據(jù),是因為在序列中前面的輸入也會影響到后面的輸出,相當(dāng)于有了“記憶功能”。但是 RNN 存在嚴(yán)重的短期記憶問題,長期的數(shù)據(jù)影響很小(哪怕他是重要的信息)。

于是基于 RNN 出現(xiàn)了 LSTM 和 GRU 等變種算法。這些變種算法主要有幾個特點:

  1. 長期信息可以有效的保留
  2. 挑選重要信息保留,不重要的信息會選擇“遺忘”

RNN 幾個典型的應(yīng)用如下:

  1. 文本生成
  2. 語音識別
  3. 機器翻譯
  4. 生成圖像描述
  5. 視頻標(biāo)記

循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)

是一類以序列(sequence)數(shù)據(jù)為輸入,在序列的演進方向進行遞歸(recursion)且所有節(jié)點(循環(huán)單元)按鏈?zhǔn)竭B接形成閉合回路的遞歸神經(jīng)網(wǎng)絡(luò)(recursive neural network)。

對循環(huán)神經(jīng)網(wǎng)絡(luò)的研究始于二十世紀(jì)80-90年代,并在二十一世紀(jì)初發(fā)展為重要的深度學(xué)習(xí)(deep learning)算法 ,其中雙向循環(huán)神經(jīng)網(wǎng)絡(luò)(Bidirectional RNN, Bi-RNN)和長短期記憶網(wǎng)絡(luò)(Long Short-Term Memory networks,LSTM)是常見的的循環(huán)神經(jīng)網(wǎng)絡(luò)。

循環(huán)神經(jīng)網(wǎng)絡(luò)具有記憶性、參數(shù)共享并且圖靈完備(Turing completeness),因此能以很高的效率對序列的非線性特征進行學(xué)習(xí)。循環(huán)神經(jīng)網(wǎng)絡(luò)在自然語言處理(Natural Language Processing, NLP),例如語音識別、語言建模、機器翻譯等領(lǐng)域有重要應(yīng)用,也被用于各類時間序列預(yù)報或與卷積神經(jīng)網(wǎng)絡(luò)(Convoutional Neural Network,CNN)相結(jié)合處理計算機視覺問題。

循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是一類神經(jīng)網(wǎng)絡(luò),其中節(jié)點之間的連接形成一個有向圖沿著序列。這允許它展示時間序列的時間動態(tài)行為。與前饋神經(jīng)網(wǎng)絡(luò)不同,RNN可以使用其內(nèi)部狀態(tài)(存儲器)來處理輸入序列。這使它們適用于諸如未分段,連接手寫識別或語音識別等任務(wù)。

術(shù)語“遞歸神經(jīng)網(wǎng)絡(luò)”被不加選擇地用于指代具有類似一般結(jié)構(gòu)的兩大類網(wǎng)絡(luò),其中一個是有限脈沖而另一個是無限脈沖。兩類網(wǎng)絡(luò)都表現(xiàn)出時間動態(tài)行為。有限脈沖遞歸網(wǎng)絡(luò)是一種有向無環(huán)圖,可以展開并用嚴(yán)格的前饋神經(jīng)網(wǎng)絡(luò)代替,而無限脈沖循環(huán)網(wǎng)絡(luò)是一種無法展開的有向循環(huán)圖。

有限脈沖和無限脈沖周期性網(wǎng)絡(luò)都可以具有額外的存儲狀態(tài),并且存儲可以由神經(jīng)網(wǎng)絡(luò)直接控制。如果存儲包含時間延遲或具有反饋循環(huán),則存儲也可以由另一個網(wǎng)絡(luò)或圖表替換。這種受控狀態(tài)稱為門控狀態(tài)或門控存儲器,并且是長短期存儲器網(wǎng)絡(luò)(LSTM)和門控循環(huán)單元的一部分。文章來源地址http://www.zghlxwxcb.cn/news/detail-674816.html

到了這里,關(guān)于深度學(xué)習(xí)4. 循環(huán)神經(jīng)網(wǎng)絡(luò) – Recurrent Neural Network | RNN的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 深度學(xué)習(xí)筆記之循環(huán)神經(jīng)網(wǎng)絡(luò)(十)基于循環(huán)神經(jīng)網(wǎng)絡(luò)模型的簡單示例

    深度學(xué)習(xí)筆記之循環(huán)神經(jīng)網(wǎng)絡(luò)(十)基于循環(huán)神經(jīng)網(wǎng)絡(luò)模型的簡單示例

    本節(jié)我們將前面介紹的幾種 循環(huán)神經(jīng)網(wǎng)絡(luò) —— RNN,LSTM,GRU text{RNN,LSTM,GRU} RNN,LSTM,GRU 關(guān)于實例中的一個演示,但重點并不僅在于這些模型,這里以 示例 的形式對 One-hot text{One-hot} One-hot 向量 重新進行認知 。 自然語言 ( Natural?Language ) (text{Natural Language}) ( Natural?Language ) 是人類

    2024年02月07日
    瀏覽(39)
  • 【AI】深度學(xué)習(xí)——循環(huán)神經(jīng)網(wǎng)絡(luò)

    【AI】深度學(xué)習(xí)——循環(huán)神經(jīng)網(wǎng)絡(luò)

    神經(jīng)元不僅接收其他神經(jīng)元的信息,也能接收自身的信息。 循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)是一類具有短期記憶能力的神經(jīng)網(wǎng)絡(luò),可以更方便地建模長時間間隔的相關(guān)性 常用的參數(shù)學(xué)習(xí)可以為BPTT。當(dāng)輸入序列比較長時,其計算時間和空間要求隨時間線性增長,可以

    2024年02月07日
    瀏覽(31)
  • 深度學(xué)習(xí)實踐——循環(huán)神經(jīng)網(wǎng)絡(luò)實踐

    深度學(xué)習(xí)實踐——循環(huán)神經(jīng)網(wǎng)絡(luò)實踐

    系列實驗 深度學(xué)習(xí)實踐——卷積神經(jīng)網(wǎng)絡(luò)實踐:裂縫識別 深度學(xué)習(xí)實踐——循環(huán)神經(jīng)網(wǎng)絡(luò)實踐 深度學(xué)習(xí)實踐——模型部署優(yōu)化實踐 深度學(xué)習(xí)實踐——模型推理優(yōu)化練習(xí) 代碼可見于:https://download.csdn.net/download/weixin_51735061/88131380?spm=1001.2014.3001.5503 **方法:**實驗主要通過pyt

    2024年02月15日
    瀏覽(23)
  • 機器學(xué)習(xí)&&深度學(xué)習(xí)——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN

    機器學(xué)習(xí)&&深度學(xué)習(xí)——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN

    ?????作者簡介:一位即將上大四,正專攻機器學(xué)習(xí)的保研er ??上期文章:機器學(xué)習(xí)深度學(xué)習(xí)—語言模型和數(shù)據(jù)集 ??訂閱專欄:機器學(xué)習(xí)深度學(xué)習(xí) 希望文章對你們有所幫助 在之前介紹了n元語法模型,其中單詞xt在時間步t的概率僅取決于前n-1個單詞。對于時間步t-(n-1)之前

    2024年02月13日
    瀏覽(25)
  • 深度學(xué)習(xí)05-RNN循環(huán)神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)05-RNN循環(huán)神經(jīng)網(wǎng)絡(luò)

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)是一種具有循環(huán)連接的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),被廣泛應(yīng)用于自然語言處理、語音識別、時序數(shù)據(jù)分析等任務(wù)中。相較于傳統(tǒng)神經(jīng)網(wǎng)絡(luò),RNN的主要特點在于它可以處理序列數(shù)據(jù),能夠捕捉到序列中的時序信息。 RNN的基本單元是一個循環(huán)單元(

    2024年02月12日
    瀏覽(25)
  • 深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)

    深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)

    ?1. 在深度學(xué)習(xí)中,序列數(shù)據(jù)(Sequence data)是指具有 前后順序關(guān)聯(lián) 的數(shù)據(jù)。常見的時間序列數(shù)據(jù)、文本數(shù)據(jù)(單詞序列或字符序列)、語音數(shù)據(jù)等。這種數(shù)據(jù)不僅十分常見,而且往往具有很高的應(yīng)用價值,比如我們可以通過過去的天氣數(shù)據(jù)來預(yù)測未來的天氣狀況,通過以往

    2024年02月07日
    瀏覽(28)
  • 深度學(xué)習(xí)05-CNN循環(huán)神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)05-CNN循環(huán)神經(jīng)網(wǎng)絡(luò)

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)是一種具有循環(huán)連接的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),被廣泛應(yīng)用于自然語言處理、語音識別、時序數(shù)據(jù)分析等任務(wù)中。相較于傳統(tǒng)神經(jīng)網(wǎng)絡(luò),RNN的主要特點在于它可以處理序列數(shù)據(jù),能夠捕捉到序列中的時序信息。 RNN的基本單元是一個循環(huán)單元(

    2024年02月11日
    瀏覽(21)
  • 《動手學(xué)深度學(xué)習(xí)》學(xué)習(xí)筆記 第9章 現(xiàn)代循環(huán)神經(jīng)網(wǎng)絡(luò)

    《動手學(xué)深度學(xué)習(xí)》學(xué)習(xí)筆記 第9章 現(xiàn)代循環(huán)神經(jīng)網(wǎng)絡(luò)

    書籍鏈接: 動手學(xué)深度學(xué)習(xí) 筆記是從第四章開始,前面三章為基礎(chǔ)知識,有需要的可以自己去看看 關(guān)于本系列筆記: 書里為了讓讀者更好的理解,有大篇幅的描述性的文字,內(nèi)容很多,筆記只保留主要內(nèi)容,同時也是對之前知識的查漏補缺 《動手學(xué)深度學(xué)習(xí)》學(xué)習(xí)筆記 第

    2024年01月18日
    瀏覽(34)
  • 深度學(xué)習(xí)實戰(zhàn)——循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN、LSTM、GRU)

    深度學(xué)習(xí)實戰(zhàn)——循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN、LSTM、GRU)

    ???? ? 憶如完整項目/代碼詳見github: https://github.com/yiru1225 (轉(zhuǎn)載標(biāo)明出處 勿白嫖 star for projects thanks) 目錄 系列文章目錄 一、實驗綜述 1.實驗工具及內(nèi)容 2.實驗數(shù)據(jù) 3.實驗?zāi)繕?biāo) 4.實驗步驟 二、循環(huán)神經(jīng)網(wǎng)絡(luò)綜述 1.循環(huán)神經(jīng)網(wǎng)絡(luò)簡介 1.1 循環(huán)神經(jīng)網(wǎng)絡(luò)背景 1.2 循環(huán)神經(jīng)網(wǎng)絡(luò)

    2023年04月24日
    瀏覽(17)
  • 深度學(xué)習(xí)基礎(chǔ):循環(huán)神經(jīng)網(wǎng)絡(luò)中的長期依賴問題

    深度學(xué)習(xí)基礎(chǔ):循環(huán)神經(jīng)網(wǎng)絡(luò)中的長期依賴問題

    在深度學(xué)習(xí)中,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是一種經(jīng)典的模型,用于處理序列數(shù)據(jù),如自然語言處理、時間序列預(yù)測等任務(wù)。然而,傳統(tǒng)的RNN存在著一個長期依賴問題,即在處理長序列時,模型往往難以捕捉到序列中遠距離的依賴關(guān)系,導(dǎo)致性能下降。在本文中,我們將介紹長期依

    2024年04月28日
    瀏覽(42)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包