国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)

這篇具有很好參考價值的文章主要介紹了深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報違法"按鈕提交疑問。


一、序列數(shù)據(jù)和語言模型

1.1 序列數(shù)據(jù)

?1. 在深度學(xué)習(xí)中,序列數(shù)據(jù)(Sequence data)是指具有前后順序關(guān)聯(lián)的數(shù)據(jù)。常見的時間序列數(shù)據(jù)、文本數(shù)據(jù)(單詞序列或字符序列)、語音數(shù)據(jù)等。這種數(shù)據(jù)不僅十分常見,而且往往具有很高的應(yīng)用價值,比如我們可以通過過去的天氣數(shù)據(jù)來預(yù)測未來的天氣狀況,通過以往的股票波動數(shù)據(jù)來推測股票的漲跌等。

比如:Cats average 15 hours of sleep a day.
其中第一個元素 “Cats” 和第三個元素 “15” 就具有關(guān)聯(lián)性。

?2. 序列數(shù)據(jù)的特點(diǎn)主要有以下兩點(diǎn):

  • 時序關(guān)系:序列數(shù)據(jù)中的元素之間存在著時間上的依賴關(guān)系,每個元素都與其前面或后面的元素有關(guān)聯(lián)。
  • 變長性:序列數(shù)據(jù)的長度是可變的,不同序列可能包含不同數(shù)量的元素。

1.2 語言模型

?1. 在自然語言處理中,語言模型是一種重要的技術(shù),它的主要任務(wù)是估測一些詞的序列的概率,即預(yù)測給定一個詞的序列后,接下來可能出現(xiàn)的詞的概率。

?2. 自然語言處理中最常見的數(shù)據(jù)是文本數(shù)據(jù)。我們可以把一段自然語言文本看做一段離散的時間序列。假設(shè)一段長度為T的文本中的詞依次為w1, w2, …, wT,那么在離散的時間序列中,wt(1 ≤ t ≤ T)可看做在時間步t的輸出或者標(biāo)簽。

?3. 給定一個長度為T的詞的序列w1, w2, …, wT,語言模型將計算該序列的概率,即P(w1, w2, …, wT)。這個概率可以用來評估該詞序列出現(xiàn)的可能性,從而在語言識別和機(jī)器翻譯等任務(wù)中起到重要作用。

比如說一句話:“ chu fang li de shi you yong wan le ”。
那這句話是 “ 廚房里的石油用完了 ”還是 “ 廚房里的食油用完了 ”?
那語言模型要做的事是計算這兩句序列的概率大小,比較并輸出。即:P ( 廚 , 房 , 里 , 的 , 石 , 油 , 用 , 完 , 了 ) < P ( 廚 , 房 , 里 , 的 , 食 , 油 , 用 , 完 , 了)。

?4. 語言模型計算序列概率的公式:

深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),深度學(xué)習(xí)從0到1,深度學(xué)習(xí),人工智能,RNN
?例如,一段含有4個詞的文本序列的概率:

深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),深度學(xué)習(xí)從0到1,深度學(xué)習(xí),人工智能,RNN

例如:P (我 , 在 , 聽 , 課) = P (我) * P (在 | 我) * P (聽 | 我 , 在) * P (課 | 我 , 在 , 聽)

?5. 語言模型缺點(diǎn):時間步 t 的詞需要考慮 t - 1步的詞,其計算量隨 t 呈指數(shù)增長。那我們可以利用循環(huán)神經(jīng)網(wǎng)絡(luò)來解決這一缺點(diǎn)。

二、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)

2.1 概述

?1. 循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent neural networks,簡稱RNN)是針對序列數(shù)據(jù)而生的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),核心在于循環(huán)使用網(wǎng)絡(luò)層參數(shù),避免時間步增大帶來的參數(shù)激增,并引入隱藏狀態(tài)(Hidden State)用于記錄歷史信息,有效的處理數(shù)據(jù)的前后關(guān)聯(lián)性。

考慮這樣一個問題,如果要預(yù)測句子的下一個單詞是什么,一般需要用到當(dāng)前單詞以及前面的單詞,因為句子中前后單詞并不是獨(dú)立的。比如,當(dāng)前單詞是“很”,前一個單詞是“天空”,那么下一個單詞很大概率是“藍(lán)”。
循環(huán)神經(jīng)網(wǎng)絡(luò)的來源就是為了刻畫一個序列當(dāng)前的輸出與之前信息的關(guān)系。從網(wǎng)絡(luò)結(jié)構(gòu)上,循環(huán)神經(jīng)網(wǎng)絡(luò)會記憶之前的信息,并利用之前的信息影響后面結(jié)點(diǎn)的輸出。也就是說,循環(huán)神經(jīng)網(wǎng)絡(luò)的隱藏層之間的結(jié)點(diǎn)是有連接的,隱藏層的輸入不僅包括輸入層的輸出,還包括上時刻隱藏層的輸出。

?2. 一個簡單的循環(huán)神經(jīng)網(wǎng)絡(luò)如下所示,它由輸入層、一個隱藏層和一個輸出層組成:

深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),深度學(xué)習(xí)從0到1,深度學(xué)習(xí),人工智能,RNN
?3. 如果我們把上面的圖展開,循環(huán)神經(jīng)網(wǎng)絡(luò)也可以畫成下面這個樣子:

深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),深度學(xué)習(xí)從0到1,深度學(xué)習(xí),人工智能,RNN
?現(xiàn)在看上去就比較清楚了,這個網(wǎng)絡(luò)在t時刻接收到輸入Xt之后,隱藏層的值是St,輸出值是Ot。關(guān)鍵一點(diǎn)是,St的值不僅僅取決于Xt,還取決于St-1。

?4. 我們可以用下面的公式來表示循環(huán)神經(jīng)網(wǎng)絡(luò)的計算方法:

深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),深度學(xué)習(xí)從0到1,深度學(xué)習(xí),人工智能,RNN
?這里的激活函數(shù)通常選擇Tanh函數(shù),Tanh函數(shù)公式和圖像如下所示,它解決了Sigmoid函數(shù)的不以0為中心輸出問題。

深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),深度學(xué)習(xí)從0到1,深度學(xué)習(xí),人工智能,RNN
深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),深度學(xué)習(xí)從0到1,深度學(xué)習(xí),人工智能,RNN

?5. 用一個具體案例來看看RNN如何工作:
?(1)用戶說了一句“what time is it?”,我們的神經(jīng)網(wǎng)絡(luò)會先將這句話分為五個基本單元(四個單詞+一個問號),如下所示:

深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),深度學(xué)習(xí)從0到1,深度學(xué)習(xí),人工智能,RNN
?(2)然后,按照順序?qū)⑽鍌€基本單元輸入RNN網(wǎng)絡(luò),先將 “what”作為RNN的輸入,得到輸出01:

深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),深度學(xué)習(xí)從0到1,深度學(xué)習(xí),人工智能,RNN
?(3)隨后,按照順序?qū)ⅰ皌ime”輸入到RNN網(wǎng)絡(luò),得到輸出02:

深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),深度學(xué)習(xí)從0到1,深度學(xué)習(xí),人工智能,RNN
?(4)以此類推,我們可以看到,前面所有的輸入產(chǎn)生的結(jié)果都對后續(xù)的輸出產(chǎn)生了影響(可以看到圓形中包含了前面所有的顏色):

深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),深度學(xué)習(xí)從0到1,深度學(xué)習(xí),人工智能,RNN
?(5)當(dāng)神經(jīng)網(wǎng)絡(luò)判斷意圖的時候,只需要最后一層的輸出05,如下圖所示:

深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),深度學(xué)習(xí)從0到1,深度學(xué)習(xí),人工智能,RNN

2.2 門控循環(huán)單元(GRU)

?1. 門控循環(huán)單元(Gate Recurrent Unit)是引入門的循環(huán)網(wǎng)絡(luò),用來緩解RNN梯度消失帶來的問題。引入門的概念,來控制信息流動,使模型更好的記住長遠(yuǎn)時期的信息,并緩解梯度消失。

  • 重置門:哪些信息需要遺忘,用于遺忘上一時間步隱藏狀態(tài)。
  • 更新門:哪些信息需要注意,用于更新當(dāng)前時間步隱藏狀態(tài)。
  • 激活函數(shù)為:Sigmoid,值域為( 0 , 1 ),0表示遺忘,1表示保留。

深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),深度學(xué)習(xí)從0到1,深度學(xué)習(xí),人工智能,RNN
?2. 候選隱藏狀態(tài):輸入與上一時間步隱藏狀態(tài)共同計算得到候選隱藏狀態(tài),用于隱藏狀態(tài)計算。通過重置門,對上一時間步隱藏狀態(tài)進(jìn)行選擇性遺忘,可以對歷史信息更好地選擇。

深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),深度學(xué)習(xí)從0到1,深度學(xué)習(xí),人工智能,RNN
深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),深度學(xué)習(xí)從0到1,深度學(xué)習(xí),人工智能,RNN

圓圈里加一點(diǎn)符號這里表示逐個元素相乘。

?3. 隱藏狀態(tài)由候選隱藏狀態(tài)及上一時間步隱藏狀態(tài)組合得來。

深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),深度學(xué)習(xí)從0到1,深度學(xué)習(xí),人工智能,RNN

深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),深度學(xué)習(xí)從0到1,深度學(xué)習(xí),人工智能,RNN
?4. GRU特點(diǎn):(1)門機(jī)制采用Sigmoid激活函數(shù),使門值為(0,1),0表示遺忘,1表示保留。(2)若更新門自第一個時間步到t-1時間過程中,一直保持為1,則信息可有效傳遞到當(dāng)前時間步。

2.3 長短期記憶網(wǎng)絡(luò)(LSTM)

?1. 長短期記憶網(wǎng)絡(luò)(Longshort-termmemory,簡稱LSTM)引入3個門和記憶細(xì)胞,控制信息傳遞。

  • 遺忘門:哪些信息需要遺忘。
  • 輸入門:哪些信息需要流入當(dāng)前記憶細(xì)胞。
  • 輸出門:哪些記憶信息流入隱藏狀態(tài)。
  • 記憶細(xì)胞:特殊的隱藏狀態(tài),記憶歷史信息。

深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),深度學(xué)習(xí)從0到1,深度學(xué)習(xí),人工智能,RNN
?2. 候選記憶細(xì)胞:可理解為特殊隱藏狀態(tài),存儲歷史時刻信息。

深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),深度學(xué)習(xí)從0到1,深度學(xué)習(xí),人工智能,RNN

深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),深度學(xué)習(xí)從0到1,深度學(xué)習(xí),人工智能,RNN
?3. 記憶細(xì)胞由候選記憶細(xì)胞及上一時間步記憶細(xì)胞組合得來。輸出門控制記憶細(xì)胞信息流入隱藏狀態(tài)。

深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),深度學(xué)習(xí)從0到1,深度學(xué)習(xí),人工智能,RNN

深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),深度學(xué)習(xí)從0到1,深度學(xué)習(xí),人工智能,RNN

深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),深度學(xué)習(xí)從0到1,深度學(xué)習(xí),人工智能,RNN
?4. 總結(jié):LSTM引入3個門和記憶細(xì)胞,控制信息傳遞。

深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),深度學(xué)習(xí)從0到1,深度學(xué)習(xí),人工智能,RNN

深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),深度學(xué)習(xí)從0到1,深度學(xué)習(xí),人工智能,RNN文章來源地址http://www.zghlxwxcb.cn/news/detail-730114.html

到了這里,關(guān)于深度學(xué)習(xí)(2)---循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點(diǎn)擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 深度學(xué)習(xí)4. 循環(huán)神經(jīng)網(wǎng)絡(luò) – Recurrent Neural Network | RNN

    深度學(xué)習(xí)4. 循環(huán)神經(jīng)網(wǎng)絡(luò) – Recurrent Neural Network | RNN

    目錄 循環(huán)神經(jīng)網(wǎng)絡(luò) – Recurrent Neural Network | RNN 為什么需要 RNN ?獨(dú)特價值是什么? RNN 的基本原理 RNN 的優(yōu)化算法 RNN 到 LSTM – 長短期記憶網(wǎng)絡(luò) 從 LSTM 到 GRU RNN 的應(yīng)用和使用場景 總結(jié) 百度百科+維基百科 卷積神經(jīng)網(wǎng)絡(luò)和普通的算法大部分都是輸入和輸出的一一對應(yīng),也就是一

    2024年02月11日
    瀏覽(54)
  • 深度學(xué)習(xí)-循環(huán)神經(jīng)網(wǎng)絡(luò)-RNN實現(xiàn)股價預(yù)測-LSTM自動生成文本

    深度學(xué)習(xí)-循環(huán)神經(jīng)網(wǎng)絡(luò)-RNN實現(xiàn)股價預(yù)測-LSTM自動生成文本

    基于文本內(nèi)容及其前后信息進(jìn)行預(yù)測 基于目標(biāo)不同時刻狀態(tài)進(jìn)行預(yù)測 基于數(shù)據(jù)歷史信息進(jìn)行預(yù)測 序列模型:輸入或者輸出中包含有序列數(shù)據(jù)的模型 突出數(shù)據(jù)的前后序列關(guān)系 兩大特點(diǎn): 輸入(輸出)元素之間是具有順序關(guān)系。不同的順序,得到的結(jié)果應(yīng)該是不同的,比如“

    2024年01月24日
    瀏覽(60)
  • 【深度學(xué)習(xí)】——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及實例氣溫預(yù)測、單層lstm股票預(yù)測

    【深度學(xué)習(xí)】——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及實例氣溫預(yù)測、單層lstm股票預(yù)測

    ? ? ? ?密集連接網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)都有主要的特點(diǎn),那就是它們沒有記憶。它們單獨(dú)處理每個輸入,在輸入和輸入之間沒有保存任何狀態(tài)。舉個例子:當(dāng)你在閱讀一個句子的時候,你需要記住之前的內(nèi)容,我們才能動態(tài)的了解這個句子想表達(dá)的含義。生物智能已漸進(jìn)的方

    2023年04月24日
    瀏覽(29)
  • 【深度學(xué)習(xí)筆記】6_2 循環(huán)神經(jīng)網(wǎng)絡(luò)RNN(recurrent neural network)

    【深度學(xué)習(xí)筆記】6_2 循環(huán)神經(jīng)網(wǎng)絡(luò)RNN(recurrent neural network)

    注:本文為《動手學(xué)深度學(xué)習(xí)》開源內(nèi)容,部分標(biāo)注了個人理解,僅為個人學(xué)習(xí)記錄,無抄襲搬運(yùn)意圖 上一節(jié)介紹的 n n n 元語法中,時間步 t t t 的詞 w t w_t w t ? 基于前面所有詞的條件概率只考慮了最近時間步的 n ? 1 n-1 n ? 1 個詞。如果要考慮比 t ? ( n ? 1 ) t-(n-1) t ?

    2024年03月12日
    瀏覽(22)
  • 【算法小記】深度學(xué)習(xí)——循環(huán)神經(jīng)網(wǎng)絡(luò)相關(guān)原理與RNN、LSTM算法的使用

    【算法小記】深度學(xué)習(xí)——循環(huán)神經(jīng)網(wǎng)絡(luò)相關(guān)原理與RNN、LSTM算法的使用

    文中程序以Tensorflow-2.6.0為例 部分概念包含筆者個人理解,如有遺漏或錯誤,歡迎評論或私信指正。 卷積神經(jīng)網(wǎng)絡(luò)在圖像領(lǐng)域取得了良好的效果,卷積核憑借優(yōu)秀的特征提取能力通過深層的卷積操作可是實現(xiàn)對矩形張量的復(fù)雜計算處理。但是生活中除了圖像這樣天然以矩陣形

    2024年01月25日
    瀏覽(21)
  • Python深度學(xué)習(xí)026:基于Pytorch的典型循環(huán)神經(jīng)網(wǎng)絡(luò)模型RNN、LSTM、GRU的公式及簡潔案例實現(xiàn)(官方)

    循環(huán)神經(jīng)網(wǎng)絡(luò)(也有翻譯為遞歸神經(jīng)網(wǎng)絡(luò))最典型的三種網(wǎng)絡(luò)結(jié)構(gòu)是: RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò)) LSTM(Long Short-Term Memory,長短期記憶網(wǎng)絡(luò)) GRU(Gate Recurrent Unit,門控循環(huán)單元) 理解參數(shù)的含義非常重要,否則,你不知道準(zhǔn)備什么維度的輸入數(shù)據(jù)送入模型 先

    2023年04月22日
    瀏覽(25)
  • 李宏毅機(jī)器學(xué)習(xí)筆記:RNN循環(huán)神經(jīng)網(wǎng)絡(luò)

    李宏毅機(jī)器學(xué)習(xí)筆記:RNN循環(huán)神經(jīng)網(wǎng)絡(luò)

    例如情景補(bǔ)充的情況,根據(jù)詞匯預(yù)測該詞匯所屬的類別。這個時候的 Taipi 則屬于目的地。但是,在訂票系統(tǒng)中, Taipi 也可能會屬于出發(fā)地。到底屬于目的地,還是出發(fā)地,如果不結(jié)合上下文,則很難做出判斷。因此,使用傳統(tǒng)的深度神經(jīng)網(wǎng)絡(luò)解決不了問題,必須引入RNN。 如

    2024年02月10日
    瀏覽(26)
  • 【python,機(jī)器學(xué)習(xí),nlp】RNN循環(huán)神經(jīng)網(wǎng)絡(luò)

    【python,機(jī)器學(xué)習(xí),nlp】RNN循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent?Neural?Network),中文稱作循環(huán)神經(jīng)網(wǎng)絡(luò),它一般以序列數(shù)據(jù)為輸入,通過網(wǎng)絡(luò)內(nèi)部的結(jié)構(gòu)設(shè)計有效捕捉序列之間的關(guān)系特征,一般也是以序列形式進(jìn)行輸出。 因為RNN結(jié)構(gòu)能夠很好利用序列之間的關(guān)系,因此針對自然界具有連續(xù)性的輸入序列,如人類的語言,語音等

    2024年01月18日
    瀏覽(25)
  • Pytorch 對比TensorFlow 學(xué)習(xí):Day 17-18: 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和LSTM

    Day 17-18: 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和LSTM 在這兩天的學(xué)習(xí)中,我專注于理解循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和長短期記憶網(wǎng)絡(luò)(LSTM)的基本概念,并學(xué)習(xí)了它們在處理序列數(shù)據(jù)時的應(yīng)用。 1.RNN和LSTM基礎(chǔ): RNN:了解了RNN是如何處理序列數(shù)據(jù)的,特別是它的循環(huán)結(jié)構(gòu)可以用于處理時間序列或連續(xù)

    2024年01月20日
    瀏覽(20)
  • 人工智能|機(jī)器學(xué)習(xí)——循環(huán)神經(jīng)網(wǎng)絡(luò)的簡潔實現(xiàn)

    人工智能|機(jī)器學(xué)習(xí)——循環(huán)神經(jīng)網(wǎng)絡(luò)的簡潔實現(xiàn)

    循環(huán)神經(jīng)網(wǎng)絡(luò)的簡潔實現(xiàn) 如何使用深度學(xué)習(xí)框架的高級API提供的函數(shù)更有效地實現(xiàn)相同的語言模型。 我們?nèi)匀粡淖x取時光機(jī)器數(shù)據(jù)集開始。 定義模型 高級API提供了循環(huán)神經(jīng)網(wǎng)絡(luò)的實現(xiàn)。 我們構(gòu)造一個具有256個隱藏單元的單隱藏層的循環(huán)神經(jīng)網(wǎng)絡(luò)層 rnn_layer 。 事實上,我們

    2024年02月04日
    瀏覽(20)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包